NVIDIA Blackwell首度MLPerf Training 4.1测试 GPU运算效能再创佳绩
【记者吕承哲/台北报导】使用文字、电脑程式码、蛋白质链、摘要、影片甚至 3D 图形的生成式人工智慧(AI)应用,需要资料中心规模的加速运算,才能有效率地训练驱动这些应用的大型语言模型(LLM),在最新的 MLPerf Training 4.1 基准测试中,NVIDIA 的 Blackwell 平台表现抢眼,实现了GPU效能的显著提升,进一步巩固了其在 AI 训练领域的领先地位。
【记者吕承哲/台北报导】使用文字、电脑程式码、蛋白质链、摘要、影片甚至 3D 图形的生成式人工智慧(AI)应用,需要资料中心规模的加速运算,才能有效率地训练驱动这些应用的大型语言模型(LLM),在最新的 MLPerf Training 4.1 基准测试中,NVIDIA 的 Blackwell 平台表现抢眼,实现了GPU效能的显著提升,进一步巩固了其在 AI 训练领域的领先地位。
【记者吕承哲/台北报导】开放工程联盟(MLCommons)日前公布其业界标准AI效能基准测试套件MLPerf Inference v4.1的结果。英特尔针对第5代Intel Xeon可扩充处理器和首次参与测试并搭载效能核心(P-core)的Intel Xeon 6处理器,提交了6项MLPerf基准测试结果。相较于第5代Xeon处理器,搭载效能核心(P-core)的英特尔Xeon 6处理器在AI效能上实现约1.9倍的几何平均效能(geomean performance)提升。
【记者吕承哲/台北报导】AMD于2日宣布首次 MLPerf 基准测试结果,在MLPerf 4.1推论中,搭载ROCm的MI300X为Llama 2 70B等大型LLM提供卓越的推论效能,与辉达(Nvidia)的H100的测试结果不分轩轾。
【记者吕承哲/台北报导】在企业争相采用生成式人工智慧(AI)与陆续推出各项新服务的情况下,对资料中心基础设施的需求也创下新高,GPU巨头辉达(NVIDIA)宣布,使用Blackwell GPU 进行的首次测试结果,在 Llama 2 70B 上将推论效能提高四倍,而 NVIDIA Hopper 架构也在各产业 AI 基准测试中有著更为优异的表现。
【记者吕承哲/台北报导】辉达(NVIDIA)宣布,与去年提交创新纪录的数据相比,NVIDIA 在基于 GPT-3 175B 的大型语言模型(LLM)基准测试中的表现,提升了三倍以上。 NVIDIA 使用配备11,616 个NVIDIA H100 Tensor Core GPU 并与NVIDIA Quantum-2 InfiniBand 网路连接的人工智慧(AI)超级电脑,透过更大规模(比一年前提交的3,584 个H100 GPU 增加三倍多)和广泛的全端工程实现了这项非凡壮举。