Supermicro总裁暨执行长梁见后指出:「Supermicro致力为AI与HPC应用提供领先业界的高效能系统,我们的Data Center Building Block Solutions(DCBBS)能快速实现一站式资料中心部署,并导入最新技术以应对各种严苛挑战。此次整合AMD Instinct MI350系列GPU,不仅扩展我们既有AI伺服器产品线,也让客户拥有更多元的选择和更高效的解决方案。」

新一代Supermicro H14平台专为AI、HPC、云端与企业级工作负载设计,具备高度弹性与效能。系统建构于Supermicro验证过的模组化架构,可搭配液冷或气冷散热机构。搭载的AMD Instinct MI350 GPU拥有288GB HBM3e高频宽记忆体,相较前一代记忆体容量提升至1.5倍,频宽达8TB/s,同时在FP16/FP8 AI运算效能方面,较上一代MI325X提升达1.8倍,助力客户更迅速处理复杂的AI模型推论与训练工作。

Supermicro同步推出支援OCP加速器模组(OAM)标准的多款GPU机型,包含气冷8-GPU与液冷4-GPU版本。新4U液冷机型采用升级的直接液冷(DLC)架构,可大幅降低机架耗电量达40%,并具备冷却GPU、CPU与其他伺服器元件的能力,满足高密度部署场景对冷却与能源效率的高度需求。8U气冷系统则为无法采用液冷的资料中心提供灵活选项。

AMD董事长暨执行长苏姿丰表示:「AMD Instinct MI350系列提供每美元最高40%的Token运算效能提升,并维持与产业标准一致的外型规格,利于系统整合商快速导入。我们与Supermicro的合作,让客户可部署基于完整AMD技术的高效能AI平台,无论是气冷或液冷架构,皆能因应不同规模与需求的应用场景。」

此次推出的AMD Instinct MI350系列GPU,采用第四代CDNA架构,专为AI训练、推论及科学模拟等高度运算密集型工作负载优化,支援FP6与FP4等新型AI资料类型,强化模型运算精度与效能。对于追求大规模部署与能效优化的云端服务供应商(CSP)、Neo-Cloud新兴云平台与企业级AI应用用户,该平台提供高度的整合性与灵活性。

根据ABI Research产业分析师Paul Schell观察,随著AI模型持续向更大规模与更高复杂度迈进,资料中心需要更快速、更高效且更可扩展的硬体架构。Supermicro的H14平台正是回应这一趋势的解决方案,为新一波AI技术的推进提供稳固基础。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
特斯拉宣布全新Model Y于6/20开始交付 估月底完成1200台