郭明𫓹发文表示,Nvidia投资趋势有3大疑虑,分别是缩放定律 (Scaling law) 的有效性延续、新款AI伺服器的量产状况与地缘政治。在终端/较低阶AI装置开始成长下,若Nvidia能对AI伺服器的缩放定律之有效性提出新看法,则有助于降低市场顾虑。
GB200 NVL72量产状况不佳已是市场共识,郭明𫓹认为,Nvidia若能举出资料中心建置GB200 NVL72的案例、聚焦在B200与B300的转换效益与提升B300相关量产的能见度,则有助于市场开始反应B300的投资主题。不过,预期Nvidia不会说明地缘政治相关议题。
终端AI也是Nvidia的长期关键趋势,但预期GTC 2025会聚焦在AI伺服器,市场期待的AI PC方案N1X与N1较有可能在今年Computex才会公布。郭明𫓹指出,AI相关股票近期已修正,GTC应能提供短期内股价上涨的催化剂,但动能能否显著延续,则取决于GTC会议内容能否降低投资人上述疑虑。
郭明𫓹表示,新AI晶片B300为发布会关键重点,包括Dual-die (CoWoS-L)与Single-die (CoWoS-S),最大亮点为HBM自192GB显著升级至288GB,运算效能较B200提升50% (FP4);B300预计在2Q25试产并于3Q25量产;提供算力更强且平均token成本更低的Scale-up与Scaling-out之参考设计方案。
郭明𫓹说明资料中心AI伺服器方案,目前开发中的伺服器包括:
B300晶片:GB300 NVL72、HGX B300 NVL16 (气冷)、HGX B300 NVL16 (液冷)、低阶的B300 NVL。
B200晶片:HGX B200 NVL8、GB200 NVL4。
配备RTX PRO 6000 Blackwell Server Edition晶片的工作站。
配备VR (Vera Rubin) 晶片的次世代AI伺服器,新增144/288选项。
较有可能在GTC 2025发表的伺服器机型:
GB300 NVL72:取代GB200 NVL72,因机柜尺寸与电源规格相似,资料中心可以无痛升级至GB300 NVL72。PS (Pre-build sample) 时程为2025年6月。
HGX B300 NVL16:取代HGX B200 NVL8与HGX H200 NVL8。因采用Single-die,故实际总GPU数量不变。气冷与水冷版本的PS时程分别为2025年6月与9月。
NVL288/144:为VR新架构设计,但因Vera与Rubin尚未量产,故若发表则机柜样品暂采GB晶片。主要宣传Nvidia的Scale-up设计优势。可能不会公布太多Vera与Rubin细节,因距离量产时程尚远 (预计在2-3Q26小量生产)。
配备RTX PRO 6000 Blackwell Server Edition晶片的工作站,用于AI与视觉化等应用,配备GDDR7 96GB (1.6 TB/s),TDP 400-600W。预计在2Q-3Q25量产。
郭明𫓹也提到可能在这次公布的资料中心网路方案:
包括Quantum-3、Quantum-X800、Spectrum-5与ConnectX-8 (CX8)。
CX8速度较CX7翻倍,整合SuperNIC与PCIE Switch (支援PCIe Gen6) 故电力消耗改善30%。支援GB300 NVL72与最新的Quantum平台。
