相較於其他競品 美光 HBM3E 功耗降低約 30% 有助減少資料中心營運成本
美光科技(Nasdaq:MU),今宣布其 8 層堆疊 24GB HBM3E解決方案已正式量產。美光 HBM3E 解決方案將應用於 輝達 H200 Tensor Core GPU,預計於 2024 年第二季出貨。此里程碑使美光穩居業界領先地位,憑藉HBM3E 卓越的效能和能源效率,助益 AI 解決方案。
HBM3E: 推動 AI 革命
隨著 AI 需求不斷提升,能夠應付與日俱增工作負載的記憶體解決方案變得更加關鍵。美光 HBM3E 解決方案具備以下優勢應對此一挑戰:
- 卓越效能: 美光 HBM3E 每腳位傳輸速率超過 9.2 Gb/s,記憶體頻寬達 1.2 TB/s 以上,為 AI 加速器、超級電腦與資料中心提供如閃電般快速的資料存取速度。
- 優異效率: 與競品相比,美光 HBM3E功耗降低了約 30%,引領業界。為了支援日益增長的 AI 需求和應用,HBM3E 能以最低的功耗提供最大的傳輸量,進而改善資料中心重要的營運成本指標。
- 高可擴展性: 美光 HBM3E 目前提供 24 GB 容量,使資料中心可無縫擴展其 AI 應用,無論是用於訓練大型神經網路還是加速推理任務,美光解決方案都能為其提供所需的記憶體頻寬。
透過其 1β 技術、先進直通矽晶穿孔 (TSV) 和其他創新,美光得以發展領先業界的 HBM3E 設計,並實現具差異性的封裝解決方案。作為記憶體領域中 2.5D/3D 堆疊和先進封裝技術的領導者,美光相當自豪成為台積電 3DFabric 聯盟的合作夥伴,共同形塑半導體和系統創新的未來。
美光也規劃將在2024 年 3 月推出 12 層堆疊 36GB HBM3E 的樣品,相較於競品,效能可達 1.2TB/s 以上並具備優異的能源效率,能進一步延續其業界領導地位。此外,美光也將成為輝達 GTC AI 大會的贊助商,該大會將於 3 月 18 日開始,屆時美光將更詳細地分享其領先業界的 AI 記憶體產品組合與藍圖。