美光正式送樣業(yè)界高容量 SOCAMM2 模組,滿足 AI 數(shù)據(jù)中心對(duì)低功耗 DRAM 的需求快訊
SOCAMM2 模塊的能效提高了三分之二以上,SOCAMM 的模塊化設(shè)計(jì)和創(chuàng)新的堆疊技術(shù)提高了可維護(hù)性,SOCAMM2 為 AI 系統(tǒng)的主存儲(chǔ)帶來(lái)了 LPDDR5X 超低功耗和高帶寬的內(nèi)在優(yōu)勢(shì)。
【TechWeb】10月23日消息,美光科技股份有限公司(納斯達(dá)克股票代碼:MU)近日宣布其 192GB SOCAMM2(small outline compression attached memory modules,小型壓縮附加內(nèi)存模塊)已正式送樣,以積極拓展低功耗內(nèi)存在 AI 數(shù)據(jù)中心的廣泛應(yīng)用。
2025年3月, 美光發(fā)布了業(yè)界首款 LPDRAM SOCAMM,而新一代 SOCAMM2 則在此基礎(chǔ)上實(shí)現(xiàn)了功能的進(jìn)一步拓展,在相同的規(guī)格尺寸中實(shí)現(xiàn) 50% 的容量提升,增加的容量可以將實(shí)時(shí)推理工作負(fù)載中首個(gè) token 生成時(shí)間(TTFT)顯著縮短 80% 以上。
192GB SOCAMM2 采用美光領(lǐng)先的 1-gamma DRAM 制程技術(shù),能效提高 20% 以上,有助于實(shí)現(xiàn)大型數(shù)據(jù)中心集群的電源設(shè)計(jì)優(yōu)化。這一能效提升在全機(jī)架 AI 安裝中尤為顯著,可配置超過(guò) 40TB 的 CPU 附加低功耗 DRAM 主存儲(chǔ)。SOCAMM2 的模塊化設(shè)計(jì)提升了可維護(hù)性,并為未來(lái)的容量擴(kuò)展奠定了基礎(chǔ)。
基于與 NVIDIA 的五年合作,美光率先將低功耗服務(wù)器內(nèi)存引入數(shù)據(jù)中心使用。SOCAMM2 為 AI 系統(tǒng)的主存儲(chǔ)帶來(lái)了 LPDDR5X 超低功耗和高帶寬的內(nèi)在優(yōu)勢(shì)。SOCAMM2 的設(shè)計(jì)旨在滿足大規(guī)模 AI 平臺(tái)不斷擴(kuò)展的需求,提供 AI 工作負(fù)載所需的高數(shù)據(jù)吞吐量,同時(shí)實(shí)現(xiàn)新的能效水平,并為 AI 訓(xùn)練和推理系統(tǒng)設(shè)定新標(biāo)準(zhǔn)。這些優(yōu)勢(shì)的結(jié)合將使 SOCAMM2 成為未來(lái)幾年業(yè)界領(lǐng)先 AI 平臺(tái)的關(guān)鍵內(nèi)存解決方案。
與同等能效的 RDIMM 相比,SOCAMM2 模塊的能效提高了三分之二以上,同時(shí)將其性能封裝到三分之一大小的模塊中,不僅優(yōu)化了數(shù)據(jù)中心占地面積,還最大限度地提高了容量和帶寬。SOCAMM 的模塊化設(shè)計(jì)和創(chuàng)新的堆疊技術(shù)提高了可維護(hù)性,并有助于液冷服務(wù)器的設(shè)計(jì)。
目前,SOCAMM2 樣品已送樣客戶,單一模組容量高達(dá) 192GB,速率達(dá) 9.6 Gbps,后續(xù)量產(chǎn)作業(yè)將配合客戶的產(chǎn)品推出日程規(guī)劃。
1.TMT觀察網(wǎng)遵循行業(yè)規(guī)范,任何轉(zhuǎn)載的稿件都會(huì)明確標(biāo)注作者和來(lái)源;
2.TMT觀察網(wǎng)的原創(chuàng)文章,請(qǐng)轉(zhuǎn)載時(shí)務(wù)必注明文章作者和"來(lái)源:TMT觀察網(wǎng)",不尊重原創(chuàng)的行為TMT觀察網(wǎng)或?qū)⒆肪控?zé)任;
3.作者投稿可能會(huì)經(jīng)TMT觀察網(wǎng)編輯修改或補(bǔ)充。
