HyperAI超神经
Back to Headlines

Nvidia 推迟 SOCAMM 内存技术发布,转战下一代 GPU “Rubin”

8 days ago

Nvidia 最近宣布推迟其即将推出的 SOCAMM(System Optical CAMM)内存技术的发布,该技术最初计划在企业级 GPU 的 Blackwell Ultra GB300 系列产品中亮相。据 ZDNet 报道,现在 SOCAMM 将随着名为“Rubin”的下一代 Nvidia GPU 一同面世。 SOCAMM 是一种新型内存形态,由 Nvidia 联合 SK Hynix 和 Micron 开发。这种内存技术借鉴了 CAMM2 设计,旨在为数据中心提供显著增强的内存性能和存储容量。一个 SOCAMM 模块尺寸为 14x90mm,包含四个 16 层的 LPDDR5 内存堆栈,总容量可达 128GB,内存带宽达 7.5 Gbps,远超传统 DDR5 DIMM 和 RDIMM 内存模组的性能。 然而,GB300 的主板设计变更导致了 SOCAMM 技术的推迟。最初,GB300 计划采用名为“Cordelia”的新主板设计,该设计嵌入了两颗 Grace CPU 和四颗 Blackwell GPU,并支持 SOCAMM 内存。但由于“Cordelia”设计存在可靠性问题,如数据丢失,以及 SOCAMM 技术本身也面临热管理难题,Nvidia 最终决定将 GB300 改为现有的“Bianca”主板设计。“Bianca”主板只配备了一颗 Grace CPU 和两颗 Blackwell GPU,不支持 SOCAMM 内存,而是继续使用传统的 LPDDR 内存。 供应链示弱也是 SOCAMM 延迟的重要原因之一。这家市值超过万亿美元的科技巨头在努力提高其供应链效率时遇到了困难,特别是在尝试确保新技术的量产稳定性。通过转向现有技术,包括使用较老的主板设计和传统的 LPDDR 内存,Nvidia 期望能够缓解这些供应链压力。 尽管 SOCAMM 延期推出,Nvidia 并没有放弃这一技术。据报道,SOCAMM 将首次应用于 Rubin 系列 GPU 中,Rubin 是 Nvidia 计划于 2027 年推出的新一代数据中心架构,接替当前的 Blackwell 架构。 Rubin 系列预计会支持多达 12 个 HBM4E 堆栈,总带宽高达 13TB/s,并使用台积电制造的 100mm x 100mm 尺寸的高级衬底。此外,Rubin 还将与现有的 Blackwell NVL72 基础设施兼容,方便用户升级换代。 业内人士评论称,SOCAMM 技术的推迟虽然令人遗憾,但考虑到其在性能和容量上的巨大潜力,Nvidia 仍有机会在未来市场占据优势。这一技术将为高性能计算和数据密集型应用带来革命性的变化。Nvidia 作为全球领先的计算平台公司,以其在 GPU 和人工智能领域的创新而著称,其对新技术的慎重选择和调试也反映了其对产品质量的严格把控。

Related Links