close
IT 基建人工智能企業趨勢

Google TPU 挑戰 GPU 霸主地位:Nvidia 單月蒸發 5 萬億市值背後的算力革命


Google TPU 挑戰 GPU 霸主地位:Nvidia 單月蒸發 5 萬億市值背後的算力革命

AI 晶片市場正經歷版圖重組。Google 正積極將其自研張量處理單元(TPU)推向外部市場,傳出與 Meta 達成價值數十億美元的合作協議,標誌著 GPU 壟斷時代開始鬆動。這消息直接衝擊 Nvidia 股價,自 10 月底至 11 月 25 日,其市值從 5.03 萬億美元暴跌至 4.32 萬億美元,單月蒸發超過 7,100 億美元(約港幣 5.54 萬億元)。本文將深入分析這場算力革命如何重塑科技巨頭的競爭格局、技術路線之爭,以及企業未來的戰略選擇。

科技巨頭打破 GPU 依賴:多元化算力成新常態

多家外媒報導顯示,Meta 正考慮從 2027 年開始在其數據中心部署 Google 的 TPU v7(Ironwood)晶片,並可能最早於 2026 年通過 Google Cloud 租用 TPU 算力。這項潛在合作具有里程碑意義,這將是 Google TPU 首次進入自身生態系統以外的超大規模數據中心。對 Meta 而言,多元化算力供應具備巨大的經濟誘因。業內數據顯示,專用 ASIC 晶片在推理任務中,可實現比 GPU 高 4 倍的成本效益,當企業計劃部署數十萬顆 AI 晶片時,這種成本差異將轉化為數百億美元的節省空間。

領先 AI 公司 Anthropic 的採購模式進一步驗證這趨勢。該公司 11 月宣佈同時與 Nvidia 簽訂價值高達 1 GW(吉瓦)的 Blackwell 及 Vera Rubin 系統長期協議,並採購 Google 最新的 Ironwood TPU。這種「多路線並行」策略背後的邏輯清晰:避免供應鏈單點風險、降低議價劣勢,並保持技術靈活性。圖像生成平台 Midjourney 改用 TPU 後,推理成本削減 65%。

GPU 與 TPU 技術對決:通用性與專用效能之爭

Nvidia 行政總裁黃仁勳強調 GPU「領先一代」的全場景優勢,並指出 Nvidia 是唯一能運行所有 AI 模型並可在所有運算場景中部署的平台。這表態突顯 GPU 的核心競爭力——通用性與 CUDA 生態系統的鎖定效應。Nvidia 的 CUDA 平台經過十餘年積累,已成為 AI 開發者的業界標準。

雖然如此,TPU 在專用領域展現壓倒性優勢。Google TPU v7 在 AI 推理任務中能源消耗降低 60-65%,並在 MLPerf 基準測試的 9 個類別中贏得 8 項。TPU 採用的脈動陣列(Systolic Array)架構,能高效串流數據而無需頻繁讀取記憶體,大幅降低延遲與能源消耗。GPU 的優勢則在於可重編程性,當演算法更新或工作負載變化時,GPU 能快速適應,而 ASIC 則需重新設計。

投資機構花旗銀行預測,到 2028 年 AI 加速器市場規模將達 3,800 億美元(約港幣 2.96 萬億元),其中 GPU 將以 75% 市場佔有率主導市場,ASIC 佔比約 25%。推理成本在 AI 模型生命週期中是訓練成本的 15 倍,預計到 2030 年推理將消耗 75% 的 AI 算力資源,市場規模達 2,550 億美元(約港幣 1.99 萬億元)。這種從訓練主導到推理主導的轉變,正是 TPU 崛起的根本驅動力。

全球算力軍備競賽:雲端服務商與地緣政治驅動

除 Google 外,全球科技巨頭正掀起自研晶片浪潮。AWS 持續改良 Trainium 及 Inferentia 系列,並設立 1.1 億美元信用計劃支援學術界使用其晶片進行 AI 研究。中國市場呈現更激進的本土化路徑。Huawei 計劃 2026 年 Ascend 910C 晶片產量增倍至 60 萬顆,整個 Ascend 產品線產量將達 160 萬顆。這場算力競賽背後,是供應鏈安全與技術主權的考量。

雖然 Nvidia 在先進封裝產能分配上仍佔優勢,但投資者正重新評估 Nvidia 的增長是否已見頂。若 Google 僅搶佔 10% 的推理工作負載,將影響 Nvidia 每年 60 億美元(約港幣 468 億元)以上的潛在收益。Omdia 預測 AI 數據中心晶片市場將從 2024 年的 1,230 億美元(約港幣 9,594 億元)增至 2030 年的 2,860 億美元(約港幣 2.23 萬億元),但增速將從 2024 年的 250% 降至 2025 年的 67%。

企業戰略啟示:算力採購進入異構時代

這場算力革命為企業技術決策者帶來深刻啟示。首先,算力採購策略需從「單一供應商依賴」轉向「多架構組合」。企業應根據工作負載特性選擇晶片:訓練大模型、需要靈活性時選 GPU;推理、重複性任務則可考慮 TPU 以降低成本。其次,企業需關注總擁有成本(TCO)與能源效率。TPU 在推理場景中可節省 60-65% 電力消耗,對有 ESG 目標的企業尤其重要。

第三,評估軟件生態系統的遷移成本。CUDA 雖強大,但 PyTorch/XLA、JAX 等開源框架正降低遷移障礙。對中國企業而言,在地緣政治風險下,Huawei Ascend 等本土方案的戰略價值超越純粹效能考量。

展望未來,AI 晶片市場將從 GPU 壟斷走向「競爭性多元」。這不是 GPU 的終結,而是算力供應體系的成熟化。企業將根據成本、效能、靈活性的權衡,在 GPU、TPU、Trainium 等選項間靈活配置。對投資者而言,重點應從「誰會取代 Nvidia」轉向「誰能在異構生態中佔據關鍵節點」。這場算力革命的結局,很可能是共存而非零和遊戲。

資料來源:
CNBC
AI News Hub
Anthropic
AI Stack
Omdia

 

Tags : AI晶片googleMetaNVIDIA算力
Pierce

The author Pierce

喜歡尋找本地潛力 Startups 與讀者分享, 對企業資訊安全特別注意