面对辉达股价剧烈波动,市场上传出一份黄仁勋的千字内部信,指称任何新兴力量都是对行业生命力的最佳印证,今日股价波动不是漫长征程中的一阵山风,让今日的波动成为一份礼物等语句激励员工。然而,辉达出面辟谣,这份内容是假消息。

这波AI浪潮从2022年底OpenAI推出基于大型语言模型(LLM)打造的聊天机器人ChatGPT所引爆,彻底改变了近年科技产业的生态,云端服务商(CSP)更是为了扩大AI基础建设,每季投入大量资源购买基于辉达、AMD等提供的AI晶片,所打造规模庞大的资料中心。不过,OpenAI也坦承,ChatGPT仍有出现AI幻觉(AI hallucination)的问题。

辉达执行长黄仁勋去年在一场采访表示,针对AI算力的需求每年将提升4倍,黄仁勋回应,实际上应该是更多,辉达的贡献就是将边际成本降低100万倍,但尽管AI提供的答案已经是最好的,但是用户仍须判断是否有误,黄仁勋坦言产业还需要好几年时间才能克服。

黄仁勋也在今年CES主题演讲解释,AI发展模式有三个重要领域,这围绕著「缩放定律」(scaling law),第一是前期训练(pre-training),需要搜集更多的资料,拥有的资料愈多,模型愈大,运算能力就愈强;第二,则是后期训练(post-training),将利用人类、AI的回馈强化学习,包括合成资料生成、多路径学习,AI就能高机率回应出合适的答案;第三,则是测试时间缩放(Test Time Scaling),根据不同的运算需求,灵活调整资源分配,确保在需要高精度时能投入更多算力,在简单任务时降低运算成本,提升效率。

DeepSeek 最新模型 DeepSeek R1 让市场惊艳,但外界所称的不到 600 万美元成本,实际上指的是去年 12 月发表的 DeepSeek-V3,且仅涵盖训练成本,并未计入架构、演算法、资料搜集与研究等费用。随著时间推进,建立同一代 AI 模型的成本虽呈指数级下降,但训练成本与算力需求仍会随每一代持续增加。根据缩放定律,开发更强大的 AI 模型需仰赖更高效的运算资源,辉达 AI 晶片正是关键所在,这也印证辉达的所称,需要继续发展AI,需要更多的AI晶片提供算力才能推动。

DeepSeek震撼市场的另外一个特点在于,此为开源大型语言模型(LLM),性能表现超越了闭源模型的GPT-4o与o1,表现更是追上了Meta的开源大型语言模型Llama 4,总参数量达6710亿,每次处理token将启用370亿参数,DeepSeek自主研发的MLA与MOE架构,为前身DeepSeek-V2的一部分,大幅降低了训练成本,但根据图灵奖得主、Meta首席AI科学家杨立昆指出,DeepSeek的成功并非代表中国AI发展的突破,也并非推出Transformer架构这种惊人成就,而是对于开源模型的价值再度被彰显,代表在这场AI浪潮中,只要会使用AI的企业或是个人,能提供一条更有价值的解决方案,都能从中受惠。

除了辉达,AMD 也积极争取 AI GPU 市场,并强调 AI 推论应用的关键性。AMD 先前宣布,将 DeepSeek-V3 整合至 Instinct MI300X GPU,该模型专为 AI 推论设计,能优化计算效率并降低成本,提升 AMD 在 AI 领域的竞争力。DeepSeek-V3 由 SGLang 软体架构支援,可无缝整合文字与视觉数据处理,为 AI 生产力树立新标准,赋能开发者打造高效 AI 应用。AMD 进一步说明,DeepSeek-V3 的开发仰赖 ROCm 软体与 Instinct GPU 加速器,其中 ROCm 平台支援 FP8(8 位浮点数),可有效降低资料传输延迟并提升推论效能。透过与 DeepSeek 团队的紧密合作,AMD 期望推动 AI 创新,挑战辉达在 AI 晶片市场的主导地位。然而,市场反应不一,主要因 AI GPU 仍有高达 90% 由辉达供应,AMD 虽积极布局,但要缩小与辉达的差距,仍需时间与更多市场验证。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
2025年ETF怎么选?法人:权值股贡献够力 市值型ETF为首选