英伟达押注 SOCAMM:AI 内存市场的新变量
SOCAMM:低功耗内存的突围之作
性能跃升:与美光此前生产的服务器 DDR 模块 “RDIMM” 相比,SOCAMM 的带宽增加 2.5 倍,I/O 速度和数据传输速度显著提升;美光展示的 128GB 产品支持 8533 MT/s,凭借高速 LPDDR5X 和 128bit 位宽,相同容量下性能远超传统方案。
能效优化:功耗仅为传统方案的 1/3,这对 AI 数据中心的能耗控制至关重要 —— 按单数据中心 10 万台服务器计算,采用 SOCAMM 可年省电费数千万元。
形态创新:外形尺寸仅 90mm×14mm,为行业标准 DDR5 RDIMM 的 1/3,且顶部无凸出梯形结构,降低整体高度,更适配服务器液体冷却环境,同时保留可更换和扩展特性,便于数据中心维护。
英伟达的布局:从 GB300 到 DGX Spark 的全面渗透
首发落地 GB300 平台:作为最新的 Blackwell 架构产品,GB300 Grace Blackwell Ultra 超级芯片将率先搭载 SOCAMM,用于 Grace CPU 的可更换内存。这一选择暗示英伟达打算为其 AI 服务器产品全面转向新型内存,以配合芯片性能释放 ——GB300 的算力提升需要更高带宽、更低延迟的内存支撑,SOCAMM 恰好填补了这一需求。
下沉至个人 AI 设备:在今年 5 月 “GTC 2025” 上发布的个人 AI 超级计算机 “DGX Spark” 已采用 SOCAMM 模块,标志着其应用从数据中心向终端延伸。随着 AI PC 概念的普及,SOCAMM 有望成为消费级与专业级市场的 “通用内存标准”。
对 AI 内存市场的连锁反应
与 HBM 形成互补而非替代:HBM 凭借超高带宽仍是万亿级大模型训练的核心选择,但成本高昂(单颗 HBM 2E 价格约 1500 美元);SOCAMM 则以性价比优势覆盖中高端推理、边缘计算等场景,两者形成 “训练用 HBM + 推理用 SOCAMM” 的分工,降低 AI 产业化的门槛。
倒逼国产内存技术加速:面对英伟达在内存标准上的主导权,国产厂商需在存算一体、光子内存等前沿领域加大投入。例如,华为昇腾已在探索基于 HBM 与自研内存池的混合架构,摩尔线程则联合国内内存厂商开发适配 MUSA 架构的低功耗模块,避免在标准上受制于人。
带动产业链协同创新:SOCAMM 对 PCB 电路板的小型化、高密度布线提出更高要求,将推动国内 PCB 厂商(如深南电路、沪电股份)的技术升级;同时,其可更换设计将催生新型服务器机箱、散热方案,带动 AI 硬件生态的整体迭代。



