NVIDIA此次发表的两大系统主力为 DGX GB300 与 DGX B300,均内建 NVIDIA 网路技术,协助企业快速部署 AI 超级电脑。这两款系统运算精度达 FP4,推理速度与效能大幅提升,进一步加速 AI 模型的词元生成及多步骤推理运算。

NVIDIA执行长黄仁勋指出,AI 应用正快速渗透各行各业,企业需要更强大且可扩充的 AI 工厂来支援日益增长的运算需求。「NVIDIA Blackwell Ultra DGX SuperPOD 是代理型与实体 AI 时代的重要基础建设,能协助企业快速启动大规模 AI 专案,缩短导入时间。」

DGX GB300 系统采用 NVIDIA Grace Blackwell Ultra 超级晶片,搭载 36 颗 Grace CPU 与 72 颗 Blackwell Ultra GPU。系统引进机架级液冷式设计,确保高效能运作并支援即时 AI 推理。另一方面,气冷式的 DGX B300 系统则应用 NVIDIA B300 NVL16 架构,同样针对生成式 AI 与代理型 AI 应用提供卓越效能。

为因应企业对先进 AI 加速基础架构的需求,NVIDIA同步推出「NVIDIA Instant AI Factory」托管服务。该服务采用由 Blackwell Ultra 驱动的 DGX SuperPOD,首波由数据中心巨头 Equinix 在全球 45 个市场推广,企业可选择液冷或气冷式配置,享有更灵活的部署选项。

其中,搭载 DGX GB300 系统的 DGX SuperPOD 可扩充至数万颗 Grace Blackwell Ultra 晶片,并透过 NVIDIA NVLink、Quantum-X800 InfiniBand 和 Spectrum-X 乙太网路实现高速资料传输。NVIDIA指出,DGX GB300 系统效能较先前 Hopper 世代提升 70 倍,并内建 38TB 高速记忆体,针对大规模代理型 AI 推理实现无与伦比的表现。

每套 DGX GB300 配备 72 颗 Grace Blackwell Ultra GPU,透过第五代 NVLink 技术整合为大容量共享记忆体空间,并搭载 72 个 ConnectX-8 SuperNIC,实现高达 800Gb/s 的传输速度。此外,系统整合 18 个 BlueField-3 DPU,支援 Quantum-X800 InfiniBand 或 Spectrum-X Ethernet 网路架构,大幅提升 AI 资料中心的安全性与运算效率。

针对各地资料中心,NVIDIA也推出 DGX B300 系统,主打低功耗且高效能的 AI 推理解决方案。该系统同样配备 Blackwell Ultra GPU,推理效能为 Hopper 世代 11 倍,训练效能提升 4 倍。每组系统搭载 2.3TB HBM3e 记忆体,整合 8 个 ConnectX-8 SuperNIC 与 2 个 BlueField-3 DPU,确保资料传输效率及系统弹性。

软体方面,NVIDIA发表全新 NVIDIA Mission Control AI 资料中心协调管理软体,专为 Blackwell 架构的 DGX 系统打造,可协助企业自动化管理 AI 基础设施。DGX 系统也全面支援 NVIDIA AI Enterprise 平台,整合 NIM 微服务及最新开源模型 NVIDIA Llama Nemotron 系列,协助企业加速开发并部署 AI 代理应用。

黄仁勋强调,Instant AI Factory 可大幅缩短企业建置 AI 工厂的时间,从几个月缩短至数周内完成。透过 Equinix 全球据点,企业无需自行设计与部署基础设施,即可快速上线进行模型训练与推理工作负载。

根据NVIDIA规划,采用 DGX GB300 或 DGX B300 系统的 DGX SuperPOD 将于今年稍晚交付合作伙伴,Instant AI Factory 服务也预计同步启动,为企业建置 AI 工厂提供更简便、快速且高效的解决方案。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
高通携12家QITC新创团队亮相2025智慧城市展 推动数位转型与永续发展