9 月 6 日消息,美光在本月發布的技術博客中表示,其“生產可用”(IT之家注:原文 production-capable)的 12 層堆疊 HBM3E 36GB 內存現正向主要行業合作伙伴交付,以在整個 AI 生態系統中進行驗證。
美光表示,其 12 層堆疊 HBM3E 容量較現有的 8 層堆疊 HBM3E 產品高出 50%,允許 Llama-70B 這樣的大型 AI 模型在單個處理器上運行,可避免多處理器運行帶來的延遲問題。
美光 12 層堆疊 HBM3E 內存具有 9.2+ Gb/s 的 I/O 引腳速率,可提供 1.2+ TB/s 的內存帶寬。美光同時還宣稱該產品較友商 8 層堆疊 HBM3E 競品功耗明顯更低。
HBM3E 并非孤立產品,而是集成在 AI 芯片系統中,這仰賴于內存供應商、產品客戶與 OSAT 企業的通力合作。而美光是臺積電 3DFabric 先進封裝聯盟的合作伙伴成員。
臺積電生態系統與聯盟管理處處長 Dan Kochpatcharin 近日表示:
臺積電與美光一直保持著長期的戰略合作伙伴關系。作為 OIP 生態系統的一部分,我們密切合作,使美光基于 HBM3E 的系統與 CoWoS 封裝設計能夠支持客戶的人工智能創新。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:[email protected]。