美光与 NVIDIA 合作开发的 SOCAMM 是一款模组化 LPDDR5X 记忆体解决方案,专为支援 NVIDIA GB300 Grace Blackwell Ultra 超级晶片而设计。美光 HBM3E 12H 36GB 也针对 NVIDIA HGXB300 NVL16 和 GB300 NVL72 平台打造;而 HBM3E 8H 24GB 则应用于 NVIDIA HGX B200 和 GB200 NVL72 平台。美光 HBM3E 产品于 NVIDIA Hopper 和 NVIDIA Blackwell 系统中的全面性部署,突显美光加速 AI 工作负载的关键角色。
在 GTC 2025 大会上,美光展示完整的 AI 记忆体与储存装置产品组合,全面支援从资料中心到边缘装置的 AI 应用,突显美光与生态系伙伴之间的深度合作关系。美光的多元产品布局包括 HBM3E 8H 24GB 和 HBM3E 12H 36GB、LPDDR5X SOCAMM、GDDR7 和高容量 DDR5 RDIMM 和 MRDIMM。此外,美光也供应业界领先的资料中心 SSD 以及汽车和工业用产品组合,例如 UFS4.1、NVMe® SSD 和 LPDDR5X,皆能契合边缘运算应用的需求。
美光资深副总裁暨运算与网路事业部总经理 Raj Narasimhan 表示:「AI 正持续推动运算领域的典范转移,其中记忆体正是这项变革的核心。美光为 NVIDIA Grace Blackwell 平台 AI 训练和推论应用带来显著的效能提升和节能效益,而 HBM 和低功耗记忆体解决方案则有助于提升 GPU 的运算能力,突破现有极限。」

美光 SOCAMM 解决方案目前已进入量产阶段,这款模组化 SOCAMM 解决方案能实现更快的资料处理速度、卓越效能、无与伦比的电源效率,以及更出色的维修便利性,能有效因应日益严苛的 AI 工作负载。
美光 SOCAMM 是全球速度最快、体积最小、功耗最低、容量最高的模组化记忆体解决方案,能够满足 AI 伺服器和资料密集型应用需求。这款全新 SOCAMM 解决方案能使资料中心在保持相同运算能力的同时,享有更充裕的频宽、更低的功耗和更强的扩充能力,进而提升基础架构的灵活性。
美光延续在 AI 领域的竞争优势,其 HBM3E 12H 36GB 在相同立方体外形规格下,提供比 HBM3E 8H 24GB 高出 50% 的容量。 此外,相较于竞争对手的 HBM3E 8H 24GB 产品,美光 HBM3E12H 36GB 的功耗降低 20%,同时记忆体容量也高出 50%。
美光将持续追求卓越的功耗和效能表现,计划将推出 HBM4 以保持技术发展动能,进一步巩固其在 AI 记忆体解决方案供应商中的领导地位。美光 HBM4 解决方案的效能预计将比 HBM3E 提升超过 50%。
美光也拥有一系列备受肯定的储存产品组合,专为满足日益增长的 AI 工作负载而设计。若要实现如光速般快速提升储存技术的效能和能源效率,必须与生态系伙伴紧密合作,确保互通性和无缝衔接的客户体验。美光推出多款最佳化 SSD,可完美因应各种 AI 工作负载,例如:推论、训练、资料准备、分析和资料湖。
随著人工智慧和生成式 AI 持续扩展并整合至边缘的终端装置,美光正与主要生态系伙伴紧密合作,为汽车、工业和消费性领域提供创新的 AI 解决方案。除了对高效能的需求外,这些应用更仰赖更高品质、更高可靠性以及更长的寿命以满足其使用需求。
