美光正式送樣業(yè)界高容量 SOCAMM2 模組,滿足 AI 數據中心對低功耗 DRAM 的需求快訊
SOCAMM2 模塊的能效提高了三分之二以上,SOCAMM 的模塊化設計和創(chuàng)新的堆疊技術提高了可維護性,SOCAMM2 為 AI 系統(tǒng)的主存儲帶來了 LPDDR5X 超低功耗和高帶寬的內在優(yōu)勢。
【TechWeb】10月23日消息,美光科技股份有限公司(納斯達克股票代碼:MU)近日宣布其 192GB SOCAMM2(small outline compression attached memory modules,小型壓縮附加內存模塊)已正式送樣,以積極拓展低功耗內存在 AI 數據中心的廣泛應用。
2025年3月, 美光發(fā)布了業(yè)界首款 LPDRAM SOCAMM,而新一代 SOCAMM2 則在此基礎上實現了功能的進一步拓展,在相同的規(guī)格尺寸中實現 50% 的容量提升,增加的容量可以將實時推理工作負載中首個 token 生成時間(TTFT)顯著縮短 80% 以上。
192GB SOCAMM2 采用美光領先的 1-gamma DRAM 制程技術,能效提高 20% 以上,有助于實現大型數據中心集群的電源設計優(yōu)化。這一能效提升在全機架 AI 安裝中尤為顯著,可配置超過 40TB 的 CPU 附加低功耗 DRAM 主存儲。SOCAMM2 的模塊化設計提升了可維護性,并為未來的容量擴展奠定了基礎。
基于與 NVIDIA 的五年合作,美光率先將低功耗服務器內存引入數據中心使用。SOCAMM2 為 AI 系統(tǒng)的主存儲帶來了 LPDDR5X 超低功耗和高帶寬的內在優(yōu)勢。SOCAMM2 的設計旨在滿足大規(guī)模 AI 平臺不斷擴展的需求,提供 AI 工作負載所需的高數據吞吐量,同時實現新的能效水平,并為 AI 訓練和推理系統(tǒng)設定新標準。這些優(yōu)勢的結合將使 SOCAMM2 成為未來幾年業(yè)界領先 AI 平臺的關鍵內存解決方案。
與同等能效的 RDIMM 相比,SOCAMM2 模塊的能效提高了三分之二以上,同時將其性能封裝到三分之一大小的模塊中,不僅優(yōu)化了數據中心占地面積,還最大限度地提高了容量和帶寬。SOCAMM 的模塊化設計和創(chuàng)新的堆疊技術提高了可維護性,并有助于液冷服務器的設計。
目前,SOCAMM2 樣品已送樣客戶,單一模組容量高達 192GB,速率達 9.6 Gbps,后續(xù)量產作業(yè)將配合客戶的產品推出日程規(guī)劃。
1.TMT觀察網遵循行業(yè)規(guī)范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創(chuàng)文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創(chuàng)的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。
