美光(Micron Technology)宣布,旗下最新的 192GB SOCAMM2 記憶體模組已正式送樣給客戶。這款產品採用 LPDDR5X 架構,主打低功耗與高容量,鎖定 AI 資料中心的節能運算需求,也進一步強化美光在 AI 基礎架構領域的地位。
SOCAMM2(Small Outline Compression Attached Memory Module,小型壓縮附加記憶體模組)在相同外型尺寸下提供比前代高出 50% 的容量,並採用美光最先進的 1γ(1-gamma)DRAM 製程技術,使能源效率提升超過 20%。根據美光內部測試,該模組可將 AI 推論中首個 token 生成時間(TTFT)縮短逾 80%,有助於提升即時推論任務的整體效能。
在大型 AI 伺服器叢集環境中,SOCAMM2 可讓單一系統搭載超過 40TB 的 CPU 直連低功耗 DRAM 主記憶體,進一步優化電源設計與散熱效率。模組化結構不僅有助於維修,也為未來容量擴充預留彈性空間。
美光指出,這項產品延續與 NVIDIA 長達五年的合作經驗,將低功耗伺服器記憶體導入資料中心應用。SOCAMM2 結合 LPDDR5X 的高頻寬與低功耗特性,針對 AI 訓練與推論所需的高資料傳輸量與能源效率進行強化,可望成為次世代 AI 平台的重要記憶體解決方案。
美光雲端記憶體事業部資深副總裁 Raj Narasimhan 表示,AI 工作負載愈趨複雜,資料中心伺服器必須在相同功耗下產出更多 tokens。憑藉在低功耗 DRAM 領域的技術優勢,美光能確保 SOCAMM2 同時兼具高資料吞吐量、能源效率與大容量,滿足資料中心高品質與穩定性的要求。
美光也提到,SOCAMM2 透過強化設計與測試流程,將原為行動裝置設計的低功耗 DRAM 升級為資料中心等級的解決方案。相較傳統 RDIMM,SOCAMM2 的能源效率提升超過三分之二,體積僅為三分之一,有助於提高資料中心的空間利用率與效能密度,並支援液冷伺服器設計。
此外,美光正積極參與 JEDEC SOCAMM2 規範制定,與業界合作推動低功耗記憶體標準化,加速技術在 AI 資料中心的落地應用。SOCAMM2 現已開始送樣,單一模組容量達 192GB、傳輸速度可達 9.6 Gbps,量產時程將配合客戶產品計畫推出。

SOCAMM2(Small Outline Compression Attached Memory Module,小型壓縮附加記憶體模組)在相同外型尺寸下提供比前代高出 50% 的容量,並採用美光最先進的 1γ(1-gamma)DRAM 製程技術,使能源效率提升超過 20%。根據美光內部測試,該模組可將 AI 推論中首個 token 生成時間(TTFT)縮短逾 80%,有助於提升即時推論任務的整體效能。
在大型 AI 伺服器叢集環境中,SOCAMM2 可讓單一系統搭載超過 40TB 的 CPU 直連低功耗 DRAM 主記憶體,進一步優化電源設計與散熱效率。模組化結構不僅有助於維修,也為未來容量擴充預留彈性空間。
美光指出,這項產品延續與 NVIDIA 長達五年的合作經驗,將低功耗伺服器記憶體導入資料中心應用。SOCAMM2 結合 LPDDR5X 的高頻寬與低功耗特性,針對 AI 訓練與推論所需的高資料傳輸量與能源效率進行強化,可望成為次世代 AI 平台的重要記憶體解決方案。
美光雲端記憶體事業部資深副總裁 Raj Narasimhan 表示,AI 工作負載愈趨複雜,資料中心伺服器必須在相同功耗下產出更多 tokens。憑藉在低功耗 DRAM 領域的技術優勢,美光能確保 SOCAMM2 同時兼具高資料吞吐量、能源效率與大容量,滿足資料中心高品質與穩定性的要求。
美光也提到,SOCAMM2 透過強化設計與測試流程,將原為行動裝置設計的低功耗 DRAM 升級為資料中心等級的解決方案。相較傳統 RDIMM,SOCAMM2 的能源效率提升超過三分之二,體積僅為三分之一,有助於提高資料中心的空間利用率與效能密度,並支援液冷伺服器設計。
此外,美光正積極參與 JEDEC SOCAMM2 規範制定,與業界合作推動低功耗記憶體標準化,加速技術在 AI 資料中心的落地應用。SOCAMM2 現已開始送樣,單一模組容量達 192GB、傳輸速度可達 9.6 Gbps,量產時程將配合客戶產品計畫推出。