AI伺服器竞争相当激烈,但目前仍由辉达拿下超高市占率,此外,英特尔也正在努力追赶。不过,包括微软等云端服务商,也相当愿意与AMD合作,借此支持其AI晶片发展,试图抗衡辉达一家独大的局势。

苏姿丰在活动上,正式推出已经在今年COMPUTEX亮相的AMD Instinct MI325X加速器,基于上一代的AMD CDNA 3架构,旨在为基础模型训练、微调和推论等要求严苛的AI任务提供卓越的效能和效率。全新产品将协助AMD客户和合作伙伴在系统、机架和资料中心层级打造高效能和最佳化的AI解决方案。

AMD Instinct MI325X加速器目前如期在2024年第4季量产出货,预计将于2025年第1季起,由戴尔科技集团、Eviden、技嘉、HPE、联想、美超微(Supermicro)等平台供应商广泛提供。

AMD执行副总裁暨资料中心解决方案事业群总经理Forrest Norrod表示,AMD持续执行我们的产品蓝图,为客户提供所需的效能和选择,以更快的速度将AI基础设施大规模推向市场。凭借全新AMD Instinct加速器、EPYC处理器和AMD Pensando网路引擎、开放软体产业体系的持续成长,以及将这一切整合至最佳化AI基础设施中的能力,AMD展现建置和部署世界级AI解决方案的关键专业知识与能力。

 



AMD董事长暨执行长苏姿丰说明CDNA架构发展蓝图。翻摄自AMD官方YT
AMD董事长暨执行长苏姿丰说明CDNA架构发展蓝图。翻摄自AMD官方YT

AMD Instinct MI325X加速器配置256GB HBM3E记忆体容量支援6.0TB/s,提供比辉达H200高1.8倍的容量和1.3倍的频宽,以及1.3倍的FP16理论峰值和FP8运算效能。AMD Instinct MI325X加速器的记忆体和运算能力可较H200提供高达1.3倍的Mistral 7B FP16推论效能、1.2倍的Llama 3.1 70B FP8推论效能,以及1.4倍的Mixtral 8x7B FP16推论效能。

AMD展示了搭载MI325X的AI伺服器配置,最多可搭载8个MI325X,加总提供2TB的HBM3E记忆体,记忆体传输速率达48TB/s,适用于超大规模资料中心及高效能运算(HPC)应用场景。AMD表示,MI325X的推出是公司AI运算技术的重大飞跃,将提供市场领先的AI处理能力,满足日益增长的资料中心与AI应用需求。

AMD也展示明年推出、基于AMD CDNA 4架构的AMD Instinct MI350系列加速器,相较于AMD CDNA 3架构带来35倍推论效能提升,AMD Instinct MI350系列将持续巩固记忆体容量的领先地位,每加速器容量高达288GB HBM3E记忆体,将如期于2025年下半年推出。

MD Instinct MI325X加速器。AMD提供
MD Instinct MI325X加速器。AMD提供

AMD执行副总裁暨资料中心解决方案事业群总经理Forrest Norrod表示,AMD持续执行我们的产品蓝图,为客户提供所需的效能和选择,以更快的速度将AI基础设施大规模推向市场。凭借全新AMD Instinct加速器、EPYC处理器和AMD Pensando网路引擎、开放软体产业体系的持续成长,以及将这一切整合至最佳化AI基础设施中的能力,AMD展现建置和部署世界级AI解决方案的关键专业知识与能力。

AMD持续推进软体功能和开放产业体系的发展,在AMD ROCm开放软体堆叠中提供强大的全新特性和功能。在开放软体社群中,AMD正推动PyTorch、Triton、Hugging Face等最为广泛采用的AI框架、函式库和模型对AMD运算引擎的支援。这项工作为AMD Instinct加速器提供了即时效能与支援,适用于Stable Diffusion 3、Meta Llama 3、3.1和3.2等热门的生成式AI模型,以及Hugging Face超过100万个模型。

AMD持续推进其ROCm开放软体堆叠,带来支援生成式AI工作负载训练和推论的最新功能。ROCm 6.2现在对FP8资料类型、Flash Attention 3、Kernel Fusion等关键AI功能提供支援。凭借这些新增功能,ROCm 6.2较ROCm 6.0提供高达2.4倍的推论效能提升注6以及1.8倍的大型语言模型(LLM)训练效能提升注7。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
川普上台如何投资? 锁定这档「创新、研发、会进化」ETF