NVIDIA 首次向 MLCommons 提交的 Blackwell 训练结果,展现了其在生成式 AI 训练效能上的重大进展。Blackwell 架构引入了新一代核心,专门优化 Tensor Core 的使用效率,这些核心针对深度学习常见的数学运算进行优化,使矩阵乘法等演算法的效能提升显著。此外,Blackwell 的每 GPU 运算输出能力显著提升,加上更大、频宽更高的 HBM3e 记忆体,能以更少的 GPU 完成 GPT-3 175B 等大型语言模型的训练,效能提升达 2.2 倍。
NVIDIA 不断进行软体开发,优化训练框架和模型效能。在这一轮 MLPerf 测试中,NVIDIA 的 Hopper 平台每 GPU 的 GPT-3 175B 训练效能提升了 1.3 倍。同时,NVIDIA 也展示了大规模基准测试成果,使用 11,616 个 Hopper GPU 进行测试,通过 NVLink 和 NVSwitch 提供高频宽的 GPU 通讯,结合 Quantum-2 InfiniBand 网路,大幅提升训练效能。这些进步不仅反映出硬体的优化,也展现了 NVIDIA 在软体更新上的努力。
NVIDIA 在此次 MLPerf 测试中,与华硕、Azure、思科、戴尔科技等合作伙伴携手,展示了多家系统制造商和云端服务供应商的共同成果。NVIDIA 作为 MLCommons 的创始成员,强调标准化基准测试的重要性,通过同业审查和数据比较,为业界提供了明确的效能指标,帮助企业做出投资决策。这一系列成就,显示出 NVIDIA 与合作伙伴在 AI 训练效能提升上的紧密合作,并进一步奠定了其在高效能 AI 运算领域的领导地位。
點擊閱讀下一則新聞
川普胜选后市场波动 法人:小型股、科技股与非投等债成新宠