NVIDIA网路介面卡与系统单晶片首席架构师Burstein在演讲中指出,AI推理需要具备机架等级的效能,才能同时满足速度与规模需求。他介绍了NVIDIA Connect X-8SuperNIC技术,如何透过高速、低延迟的多GPU通讯,支撑大型AI模型的运行。

NVIDIA同步展示其完整网路平台,包括NVLink、NVLink Switch与NVLink Fusion,提供垂直扩展的GPU连结能力;而Spectrum-X乙太网路则提供水平扩展,能将分散丛集整合成统一运算单元。更进一步的Spectrum-XGS跨域技术,可将多个资料中心互联,打造「千兆瓦级AI超级工厂」。

值得注意的是,随著矽光子技术持续发展,透过共同封装光学(CPO)交换器以光纤取代传统铜线,不仅加速传输,更大幅降低能耗,突破大规模AI基础设施瓶颈。

另一大焦点是NVIDIA GB200 NVL72系统。该单一机架百万兆级(exascale)电脑整合36颗GB200超级晶片,每颗晶片由两个B200 GPU与一个Grace CPU组成,并透过NVLink网域连结,能以每秒130TB的低延迟效能支援AI与高效能运算。这项基于Blackwell架构的系统,将推理效能提升至全新境界。

NVIDIA架构资深总监Blackstein则介绍了GeForce RTX 5090 GPU所展现的突破。透过DLSS4技术,游戏效能可翻倍提升,并引入神经渲染功能,将效能、光影效果与设计周期均放大或缩短十倍,让电脑图形与模拟达到前所未有的真实感。

在桌面端应用方面,NVIDIA发表DGXSpark超级电脑,由GB10超级晶片驱动。其设计面向研究人员与开发者,能以小型化外型承载生成式AI的高效运算。DGXSpark支援NVFP4数值格式,针对大型语言模型(LLM)推理进行最佳化,兼具能效与效能,成为学术研究与企业研发的有力工具。

除了硬体创新,NVIDIA也积极推动软体生态。公司宣布已加速多项开源函式库与框架,如Tensor RT-LLM、Cutlass、Collective Communication Library等,并与FlashInfer、PyTorch、vLLM等热门框架合作,提供模型最佳化方案。

此外,NVIDIA NIM微服务也支援包括OpenAI gpt-oss与Llama4在内的多款开源模型,让开发者在享有灵活度与安全性的同时,也能使用托管型API,拥有更多元的开发选择。

从机架级电脑、超高速网路,到图形与游戏技术,NVIDIA在Hot Chips大会展示的系列创新,展现其打造「AI工厂」的完整蓝图。无论是资料中心的大规模AI推理,还是桌面端的生成式AI开发,NVIDIA都以软硬体并进的策略,推动AI技术无所不在。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
台股盘中大涨近600点重返2万4 法人:这指标决定回档修正是否告终