Microsoft 資料中心能耗危機:AI 熱潮下能源消耗突破歷史新高

Microsoft 2024 年資料中心電力成本高達 176 億美元,反映 AI 熱潮帶來龐大能源消耗。隨著 OpenAI 等需求急增,Microsoft 正以前所未有速度擴張,但也面臨 PUE 效率困境及 GPU 供應鏈瓶頸。



Microsoft 2024 年資料中心電力消耗達到驚人的 176 億美元(約港幣 1,372.8 億元),較前一年急增 4.4%,這個數字相當於美國全國能源消耗的 4.4%。隨著 OpenAI 等 AI 巨頭對運算需求的持續攀升,這場由人工智能驅動的能源革命正在重塑全球科技產業格局,也將企業推向前所未有的營運成本壓力與環境責任挑戰。本文將深入剖析 Microsoft 如何應對每年新增 3,000 個資料中心的能源需求、GPU 供應鏈瓶頸,以及這場 AI 基礎建設軍備競賽對全球企業的深遠影響。

AI 運算需求引爆能源消耗新紀錄

2024 年 Microsoft 資料中心的能源消耗突破歷史新高,電力成本高達 176 億美元(約港幣 1,372.8 億元),佔美國全國能源使用量的 4.4%。這個驚人的增長主要源於 OpenAI 等合作夥伴對 GPU 運算資源的龐大需求,單是 OpenAI 在 2025 年 11 月初就與 Amazon Web Services 簽署了價值 380 億美元(約港幣 2,964 億元)、為期 7 年的雲端服務協議,立即開始使用數十萬顆 NVIDIA GPU 進行 AI 模型訓練與推理運算。根據勞倫斯伯克利國家實驗室的預測,到 2028 年,AI 相關運算將佔用資料中心總電力消耗的 50% 以上,相當於美國 22% 家庭的年度用電量。

Microsoft 為了滿足這股需求,正以前所未有的速度擴張全球資料中心網絡。2025 年 11 月 11 日,Microsoft 宣布將在葡萄牙 Sines 港口城市投資 100 億美元(約港幣 780 億元)建設 AI 資料中心,計劃部署 12,600 顆先進 GPU,這是歐洲最大規模的 AI 基礎建設投資之一。此外 Microsoft 還與 NVIDIA、Nebius 等供應商簽署了多項價值數百億美元的 GPU 租賃協議,僅與 IREN 的合作就達 97 億美元(約港幣 756.6 億元),專門用於取得 NVIDIA 即將推出的 GB300 系列 GPU。這些協議突顯了一個殘酷現實:AI 運算需求的增長速度已經遠遠超越現有硬件供應能力。

全球資料中心建設正進入空前的擴張期。根據 Allianz Commercial 的報告,到 2030 年全球資料中心建設支出預計將達到 7 萬億美元(約港幣 54.6 萬億元),其中美國和中國是主要推動力。單一資料中心項目的建設成本已從過去的 2 億至 3 億美元(約港幣 15.6 億至 23.4 億元)飆升至超過 200 億美元(約港幣 1,560 億元),平均規模的設施成本也達到 5 億至 20 億美元(約港幣 39 億至 156 億元)。這場建設熱潮背後,是科技巨頭們對 AI 運算能力的瘋狂競逐,Amazon、Microsoft 和 Google Cloud 3 大雲端供應商在 2025 年第 2 季度就佔據了全球雲端營收的 3 分之 2。

能源效率困境:PUE 指標背後的真相

雖然 Microsoft 不斷強調能源效率改善,但實際數據揭示了一個更複雜的現實。2024 年,Microsoft 部分資料中心的電力使用效率(PUE)達到 1.56,這個數字意味著每消耗 1.56 度電,只有 1 度真正用於 IT 運算,其餘 0.56 度被冷卻系統、照明和配電損耗等非運算用途消耗掉。相比之下,業界先進的資料中心如美國國家再生能源實驗室(NREL)的設施已經實現年均 PUE 1.036 的卓越表現,甚至有部分設施達到 1.06 或更低。

這種效率差距並非技術能力不足,而是 AI 運算的特殊需求所致。配備高密度 GPU 的 AI 伺服器產生的熱量遠超傳統伺服器,需要更強大的冷卻系統來維持運作。NVIDIA 的 H100 和即將量產的 GB300 系列 GPU 雖然運算能力強大,但功耗和散熱需求也同步攀升。Microsoft 在 2025 年 10 月部署的首個大規模 GB300 生產集群,包含超過 4,600 個 NVIDIA GB300 NVL72 系統,每個機架配備 72 顆 Blackwell Ultra GPU,總計超過 330,000 顆 GPU,其散熱挑戰可想而知。

能源碳排強度問題更加嚴峻。根據 MIT Technology Review 的研究,美國資料中心使用的電力碳排強度比全國平均水平高出 48%。這是因為為了滿足 AI 運算的即時需求,資料中心往往需要依賴天然氣等碳密集型能源,而非再生能源。到 2028 年,AI 專用運算的年度電力消耗預計將達到 150 至 300 太瓦時(TWh),相當於從地球到太陽往返超過 16,000 次所需的能源。這個趨勢正在推動資料中心電力需求佔美國總電力消耗的比例從目前的 4.4% 激增至 12%。

GPU 供應鏈瓶頸與市場重組

NVIDIA 在 AI GPU 市場的主導地位正在創造前所未有的供應鏈壓力。根據 TrendForce 的研究,2025 年 Blackwell 系列 GPU 預計將佔 NVIDIA 高階 GPU 出貨量的 80% 以上,但即使如此仍無法滿足市場需求。台灣代工製造商如鴻海(Foxconn)、廣達(Quanta)、緯創(Wistron)和緯穎(Wiwynn)都在爭奪 GB300 伺服器的組裝訂單,鴻海更取得最大份額,生產配備 72 顆 Blackwell GPU 的最高規格版本。

這場供應鏈競賽已經改變了全球製造業的優先順序。業界消息指出,台灣代工廠正在將 AI 伺服器生產置於傳統消費電子產品(包括 Apple iPhone)之上,目標是在 2025 年 9 月開始大規模出貨 GB300 伺服器。根據 Gartner 的數據,AI 伺服器需求預計在 2025 年同比增長 147%,鴻海高層預期 AI 伺服器將佔其伺服器營收的 50% 以上,這標誌著從傳統消費電子到 AI 基礎設施的戲劇性轉變。

GPU 短缺問題至少將持續到 2026 年。雖然 NVIDIA 計劃在 2026 年第 3 或第 4 季度開始量產下一代 Rubin GPU,但這個時間點與當前 Blackwell Ultra GB300 的全面量產時間大致相同,甚至可能更早。OpenAI 等企業正在積極尋求替代方案,除了與 Microsoft 的長期合作外,還簽署了與 Oracle 價值 3,000 億美元(約港幣 2.34 萬億元)、與 AMD、Broadcom 等超過 1.4 萬億美元(約港幣 10.92 萬億元)的基礎設施開發協議。然而,由於 NVIDIA CUDA 平台和專用 Tensor Core 在 AI 工作負載上的性能優勢難以匹敵,市場對 NVIDIA GPU 的集中需求短期內難以改變。

企業競爭格局的深刻變革

Microsoft 與 OpenAI 的合作關係正在經歷重大調整,這將重塑整個 AI 產業的競爭格局。2025 年 9 月,雙方簽署了一份非約束性諒解備忘錄,解決了長達數月的合作緊張關係。根據新協議,Microsoft 在 OpenAI Group PBC 持有約 1,350 億美元(約港幣 1.053 萬億元)的股權(約 27% 股份),並保留對前沿模型的 Azure API 獨家權利直到宣布實現通用人工智能(AGI),但任何 AGI 宣告必須經過獨立專家小組驗證。Microsoft 的智慧財產權現已延長至 2032 年,並包含 AGI 後的模型,而 OpenAI 現在可以自由地在 Microsoft 之外尋求運算和部署合作夥伴。

這種開放性正在推動 AI 基礎設施市場的多元化。OpenAI 與 AWS 的 380 億美元(約港幣 2,964 億元)協議標誌著其首次在 Microsoft 之外建立大型雲端合作關係,將立即開始使用 AWS 位於美國的數十萬顆 NVIDIA GPU,未來還將擴展容量。AWS 總裁 Dave Brown 表示,他們正在為 OpenAI 建立完全獨立的運算容量,部分容量已經可用。與此同時,Microsoft 也在整合 Anthropic 的 Claude 模型,顯示獨家 AI 合作時代已經結束,取而代之的是多供應商企業 AI 時代。

這場 AI 基礎設施軍備競賽的規模令人震驚。OpenAI 在 2025 年宣布了總計約 1.4 萬億美元(約港幣 10.92 萬億元)的開發協議,涉及 NVIDIA、Broadcom、Oracle 和 Google 等多家企業。部分分析師開始質疑是否存在 AI 泡沫,以及美國是否擁有足夠資源來實現這些雄心勃勃的承諾。然而 NVIDIA 執行長黃仁勳在 2025 年 10 月 27 至 29 日華盛頓 GTC 大會上駁斥了 AI 泡沫的擔憂,同時公布了下一代產品路線圖。根據 Bain 的最新全球資料中心預測,超大規模科技公司在 2025 年的投資不但沒有如預期般縮減,反而顯著增加,並預計在未來幾年持續成長。

AI 時代的可持續發展挑戰

Microsoft 資料中心佔全球能源消耗 20% 的說法雖然誇大,但其能源足跡確實在快速擴大。根據 BloombergNEF 的預測,美國資料中心電力需求將從 2024 年的 35 GW 增加 1 倍以上,到 2035 年達到 78 GW,屆時將佔美國總電力需求的 8.6%,是目前 3.5% 的 2 倍多。實際能源消耗增長將更加陡峭,平均每小時電力需求將從 2024 年的 16 GWh 增至 2035 年的 49 GWh,接近 3 倍。

這種能源需求激增正在推動企業尋求多元化能源解決方案。科技巨頭們正在簽署新核電廠協議、重啟舊核電廠,並與公用事業供應商談判大規模合約。然而 資料中心開發面臨現實挑戰,從取得土地、電力和許可證,到應對複雜的建設流程,BloombergNEF 估計在美國,資料中心開發從初始階段到全面運營通常需要約 7 年時間,其中建設前期 4.8 年、建設期 2.4 年。這些時間和資源限制是預測相對保守的原因,而非對 AI 市場潛力的懷疑。

未來展望:效率革新與產業重塑

面對能源消耗和成本壓力,AI 產業正在探索多種技術路徑來提升效率。DeepSeek V3 的「專家混合」(Mixture of Experts)架構展示了一種創新方向,透過多個較小、專業化模型的協作網絡來改善訓練效率,為遏制快速攀升的電力需求提供了潛在解決方案。在冷卻技術方面,業界正在採用熱通道 / 冷通道隔離、液冷系統、室外空氣經濟器等策略來降低非 IT 設備的能源消耗。例如,某個俄勒岡州資料中心透過使用水側經濟器將 PUE 降至 1.06,甚至將伺服器室溫度從 65°F 提升至 75 至 80°F 這樣簡單的調整也能減少不必要的過度冷卻,節省電力並降低碳排放。

AI 驅動的設計和營運改良正在加速資料中心效率改善。專業工具和企業(如 Cove)正在運用智慧演算法協調複雜系統,使得在開發時間大幅縮短的情況下實現 1.1 左右的超高效 PUE 成為可能。這種方法除了滿足開發商對速度和投資報酬率的需求外,也回應了永續發展倡議者對更環保、精實資料中心的期待。此外 先進設施正在探索廢熱再利用,將伺服器產生的熱能用於為鄰近建築物或溫室供暖,雖然這不會直接計入 PUE,但能改善整體能源價值並支持更廣泛的永續目標。

工作負載模式的轉變也在重塑基礎設施策略。根據 Bain 的 分析,AI 工作負載正從單純的模型訓練轉向更加重視大規模推理,這部分源於企業 AI 應用案例的明確進展。測試時運算(test-time compute)正在重塑基礎設施策略、經濟效益和架構,對資料中心託管與自建、晶片多樣性和電力配置都產生重大影響。雖然超大規模企業的投資在 2025 年顯著增加並預計持續成長,但他們也更加注重資本效率,在新部署(特別是 AI 訓練)方面變得更加挑剔。這種從瘋狂擴張到策略性、選擇性、電力受限和執行導向的成長階段轉變,意味著未來的贏家,其致勝關鍵除了規模外,更在於精準應對複雜性的能力。

資料來源: Reuters Amazon Web Services MIT Technology Review Microsoft Azure Allianz Commercial