根据国际能源总署(IEA)的能源与人工智慧报告(Energy and AI)指出,一座100 MW规模的AI专用资料中心,其电力消耗约相当于10万户家庭用电量,对电力的需求非常可观。国际能源总署并预测,到2030年,全球AI专用资料中心的耗电量甚至相当于日本一个国家的数量。


至于对个别的科技巨头来说,微软(Microsoft)执行长纳德拉(Satya Nadella)最近在与OpenAI执行长阿特曼(Sam Altman)的podcast节目中坦言:「我们现在面临的最大问题,不再是运算资源过剩,而是电力——以及能否够快地在有电力的地方完成设施建置。」


他补充说:「如果做不到这点,我们可能会有一堆晶片躺在仓库里却插不上电。」


正如1990年代的网际网路基础设施狂潮,如今科技巨头正投入前所未有的资金,打造支撑人工智慧革命的「矽基骨干」。


Google、微软、亚马逊网路服务(AWS)与Meta(脸书)动用其庞大现金储备,预计在2025年投入约4000亿美元建设,2026年支出将更高。


这笔巨资已帮助业界缓解最初的瓶颈——取得数百万颗支撑运算能力所需的晶片。这些企业也加速自制处理器的研发,以追赶全球领先的辉达(Nvidia)。


在美国建造一座大型资料中心平均需要两年时间,但兴建新的高压电力线路则需5到10年。


●能源「高墙」


矽谷所谓的「超大规模运算业者」(hyperscalers)早已预见这道「能源高墙」。


早在1年前,美国维吉尼亚州主要电力供应商道明尼能源公司(Dominion Energy)就接到高达40吉瓦(GW)的资料中心订单——相当于40座核电厂的发电量。


该公司近期宣布,其在维吉尼亚州需部署的电力容量已增至47吉瓦。

 


點擊閱讀下一則新聞 點擊閱讀下一則新聞
野蛮战狼!高市早苗谈「台湾有事」 中国总领事竟扬言「斩首」