美光科技(Micron Technology, Nasdaq: MU)於 6 月 12 日宣布,其全新 12 層堆疊、容量達 36GB 的高頻寬記憶體(HBM4)已正式送樣至多家主要客戶。這款業界領先的產品不僅具備卓越的能源效率,更以突破性的傳輸效能,為下一代人工智慧(AI)平台奠定關鍵基石。
隨著生成式 AI 應用日益普及,從大型語言模型(LLM)到思路鏈(Chain-of-Thought)推理系統,對記憶體性能與效率的要求不斷提升。美光指出,HBM4 採用成熟的 1β DRAM 製程與 12 層先進封裝技術,每堆疊提供高達 2.0TB/s 的資料傳輸速率,效能比前一代產品提升超過 60%。同時,其 2048 位元的高速介面設計,能有效支援 AI 加速器進行大規模資料處理,進一步提升推論速度與準確性。
在能源效率方面,HBM4 相較於前代 HBM3E 再次實現逾兩成的節能優化,使其成為資料中心與雲端運算環境的理想選擇。這項進展不僅可降低 AI 工作負載的總功耗,更有助於實現更具永續性的運算架構。
美光資深副總裁暨雲端記憶體事業部總經理 Raj Narasimhan 表示:「HBM4 是我們在記憶體技術演進上的又一重要里程碑。憑藉其更高的頻寬與業界領先的能源效率,我們與客戶密切協作,為未來 AI 平台建構強大基礎。」
美光預計 HBM4 將於 2026 年正式量產,與合作夥伴的 AI 平台導入時程同步,以確保市場需求能及時獲得滿足。該公司亦強調,HBM4 將在醫療、金融、運輸等多個產業應用場景中,扮演推動智慧化轉型的核心角色。
美光多年來持續在記憶體與儲存技術領域深耕,從資料中心到邊緣設備,其產品組合已成為推動 AI 革命的重要推手。隨著 HBM4 的推出,美光再次展現其在全球 AI 發展中的關鍵影響力。
如需更多技術細節,可造訪美光官網:高頻寬記憶體

隨著生成式 AI 應用日益普及,從大型語言模型(LLM)到思路鏈(Chain-of-Thought)推理系統,對記憶體性能與效率的要求不斷提升。美光指出,HBM4 採用成熟的 1β DRAM 製程與 12 層先進封裝技術,每堆疊提供高達 2.0TB/s 的資料傳輸速率,效能比前一代產品提升超過 60%。同時,其 2048 位元的高速介面設計,能有效支援 AI 加速器進行大規模資料處理,進一步提升推論速度與準確性。
在能源效率方面,HBM4 相較於前代 HBM3E 再次實現逾兩成的節能優化,使其成為資料中心與雲端運算環境的理想選擇。這項進展不僅可降低 AI 工作負載的總功耗,更有助於實現更具永續性的運算架構。
美光資深副總裁暨雲端記憶體事業部總經理 Raj Narasimhan 表示:「HBM4 是我們在記憶體技術演進上的又一重要里程碑。憑藉其更高的頻寬與業界領先的能源效率,我們與客戶密切協作,為未來 AI 平台建構強大基礎。」
美光預計 HBM4 將於 2026 年正式量產,與合作夥伴的 AI 平台導入時程同步,以確保市場需求能及時獲得滿足。該公司亦強調,HBM4 將在醫療、金融、運輸等多個產業應用場景中,扮演推動智慧化轉型的核心角色。
美光多年來持續在記憶體與儲存技術領域深耕,從資料中心到邊緣設備,其產品組合已成為推動 AI 革命的重要推手。隨著 HBM4 的推出,美光再次展現其在全球 AI 發展中的關鍵影響力。
如需更多技術細節,可造訪美光官網:高頻寬記憶體