NVIDIA AI 伺服器耗電量在 8 年內暴增 100 倍,從 Ampere 到 Kyber 架構的演進讓每台機架耗能高達 120KW。隨著 OpenAI、Meta 等巨頭擴建 AI 超級資料中心,全球電力需求恐在 2030 年翻倍,能源永續成 AI 發展最大挑戰。
NVIDIA AI 伺服器耗能引發電力危機
隨著生成式 AI 以及 AGI (人工通用智慧) 的熱潮席捲全球,AI 運算需求正以前所未見的速度攀升。根據分析師 Ray Wang 的資料顯示,NVIDIA 的 AI 伺服器從 Ampere 架構進化到最新的 Kyber 架構,整體耗電量暴增近 100 倍。
NVIDIA 之所以出現如此劇烈的耗電成長,主要原因包括:
-
GPU 數量倍增:每代機架整合更多 GPU 模組。
-
TDP 提升:單顆 GPU 的熱設計功耗不斷上升。
-
高速互連技術升級:NVLink、NVSwitch 等架構需要額外供電。
-
高密度運算與長時運作:AI 模型訓練與推論幾乎不間斷。
舉例來說,Hopper 架構系統平均每個機架耗電約 10KW,但到了 Blackwell 世代,由於 GPU 數量倍增,耗電量已突破 120KW,幾乎達到統資料中心機架的十倍以上。
Ray Wang 指出,如今科技巨頭之間的競爭,不再是誰的模型更快,而是誰能建出更大的 AI 能源園區 (Energy Campus)。也因此,包含 OpenAI、Meta、Google、Microsoft 等公司都正在規劃未來幾年內新增超過 10GW (十億瓦) 等級的 AI 運算電力容量。若以此換算,1GW 約可供應 100 萬戶美國家庭,代表一座超級 AI 資料中心的耗電量已等同一個中型國家或數個美國州份的總用電量。
這樣的能源消耗速度,已引起政策制定者的警覺。美國政府與歐洲能源委員會皆警告,若不採取措施,AI 導致的能源需求暴漲恐使部分地區電網負荷過重,甚至影響民生用電。
根據國際能源署 (IEA) 於 2025 年最新發布的《Energy & AI》報告指出,若 AI 成長維持現有速度,全球電力消耗將在 2030 年前翻倍,而電網建設速度卻僅提升約 25%。更令人憂心的是,這將導致家庭電價上升,特別是在靠近大型 AI 資料中心的地區。報告也指出,美國、歐洲與亞洲主要科技園區的電力使用率已逼近當地電網承載極限。
NVIDIA 在 AI 硬體領域的成功無庸置疑,但這場「算力革命」也暴露了一個更深層的問題:AI 的真正瓶頸已不再是晶片效能,而是電力可持續性。當每一代 GPU 都在突破運算極限時,能源供應與冷卻基礎設施是否能跟上?如果答案是否定的,AI 的發展速度將被能源瓶頸所束縛。
NVIDIA 與其他半導體廠商如今不僅需要追求「更快的 GPU」,也必須思考「更節能的架構」與「再生能源整合」,否則 AGI 的未來可能會在電網的臨界點前止步。
延伸閱讀