close
IT 基建人工智能企業趨勢

1 兆美元商機開跑:解析 NVIDIA 供貨 AWS 百萬顆 GPU 戰略佈局


1 兆美元商機開跑:解析 NVIDIA 供貨 AWS 百萬顆 GPU 戰略佈局

NVIDIA 與亞馬遜雲端服務 AWS 本週宣布達成雲端運算史上規模最大晶片採購協議。根據協議 AWS 將於 2027 年底前向 NVIDIA 購入超過 100 萬顆 GPU 及配套產品。這項多年期合作計劃自 2026 年起開始出貨,正好呼應行政總裁黃仁勳提出 1 兆美元(約港幣 7.8 兆元)AI 晶片商機藍圖。

百萬顆晶片真實面貌

這項協議引人矚目之處在於涵蓋範圍極廣,遠超單純 GPU 數量。NVIDIA 超大規模與高效能運算部門副總裁 Ian Buck 向 Reuters 透露,合約涵蓋超過 100 萬顆 GPU,同時包含 NVIDIA Spectrum 網絡晶片、ConnectX 與 Spectrum-X 網絡裝置。NVIDIA 亦斥資約 170 億美元(約港幣 1,326 億元)取得 AI 推論初創公司 Groq 晶片授權。

AWS 官方公告確認部署 GPU 將涵蓋 Blackwell 與 Rubin 兩大架構。AWS 同時成為全球主要雲端供應商中率先支援 NVIDIA RTX PRO 4500 Blackwell Server Edition GPU 業者。

AWS 同時整合 NVIDIA NIXL 互連加速技術,最佳化大型語言模型 LLM 分散式推論效能,並與亞馬遜彈性網絡介面 EFA 協同運作。深度技術融合顯示這項合作絕非單次採購,而是兩家企業於 AI 基礎設施層面全面協作。

推論戰場七晶片策略

Ian Buck 直言推論任務極具挑戰,要在推論領域達到頂尖水準無法單靠一款晶片,他們實際部署全部 7 款晶片。這番話點出合作技術核心,AWS 將 Groq 晶片與 6 款 NVIDIA 晶片混合部署,專門最佳化 AI 推論工作負載。AI 推論 Inference 指 AI 系統為使用者生成答案及執行任務過程。大規模商用場景中,此過程對延遲與成本極為敏感。

NVIDIA 於 GTC 2026 發表 Groq 3 LPX 語言處理單元推論加速器。該晶片由三星 4 納米製程生產,與 Vera Rubin NVL72 GPU 協同運作,專門處理解碼 decode 階段中對延遲最敏感部分。根據 NVIDIA 官方資料,Vera Rubin 搭配 LPX 組合可實現每兆瓦高達 35 倍推論吞吐量提升,並為兆參數模型帶來最多 10 倍營收增長。

市場研究機構 SiliconAngle 分析師指出這舉動堪稱「NVIDIA Groq 時刻」,猶如當年收購 Mellanox 網絡晶片。NVIDIA 藉由 Groq 技術將低延遲推論路徑整合至自身平台,延長現有裝置使用週期,同時強化 CUDA「一次撰寫,到處運行」生態優勢。行政總裁黃仁勳預估約 25% GPU 工作負載將與 Groq 晶片搭配部署。Groq 技術導入後有望每吉瓦 gigawatt 創造 3,000 億美元(約港幣 2 兆 3,400 億元)年收入。

兆元商機與雲端軍備競賽

協議規模直接呼應黃仁勳於 GTC 2026 主題演講宏觀預測。黃仁勳明確表示 NVIDIA Rubin 與 Blackwell 系列晶片至 2027 年潛在商機將達到至少 1 兆美元(約港幣 7.8 兆元),較前一年預測 5,000 億美元(約港幣 3 兆 9,000 億元)大幅增倍。市場分析機構 aInvest 指出全球雲端 AI 基礎設施支出預計 2028 年突破 3 兆美元(約港幣 23.4 兆元)。AWS 與 NVIDIA 這筆協議正是搶佔市場佔有率關鍵佈局。

從競爭格局觀察,AWS 此舉明顯針對 Microsoft Azure 與 Google Cloud 展開戰略反制。Microsoft 已將 NVIDIA Vera Rubin NVL72 機架系統整合至下一代 AI 資料中心,Google Cloud 同樣於 GTC 2026 宣布擴大與 NVIDIA 合作。AWS 與 NVIDIA 合作逾 15 年,協議將雙方關係提升至全新高度。AWS 資料中心傳統採用自研網絡裝置,此次首度開放部署 NVIDIA ConnectX 與 Spectrum-X 網絡硬件,顯示 AWS 對 NVIDIA 全棧解決方案高度信任。

十五年夥伴關係集大成

NVIDIA 與 AWS 合作逾 15 年,雙方早年聯合開發全球首套 GPU 雲端運算服務奠定業界先例。2023 年 AWS 宣布配置 16,384 顆 NVIDIA GH200 超級晶片超級電腦,算力達 65 exaflops,率先將 NVIDIA 頂尖硬件引入雲端。2025 年底兩家公司於 AWS re:Invent 大會進一步加深合作。AWS 更將 NVIDIA NVLink Fusion 整合至自家 Trainium4 特製晶片及 Graviton 處理器,展現互補而非競爭技術哲學。

這項百萬 GPU 協議象徵雙方長期夥伴關係集大成。NVIDIA Rubin 系列晶片預計 2026 年下半年正式在網上推出,AWS 為全球首批部署業者之一,與 Microsoft、Google、Oracle Cloud Infrastructure 並列。Dell、HPE、Lenovo、Supermicro 等伺服器廠商同步跟進,標誌以 Rubin 為核心下一代 AI 基礎設施生態正式成形。

奠定 AI 算力霸主地位

這項協議對企業影響深遠且立即。雲端客戶可於 AWS 平台更早及更具成本效益取得下一代 Blackwell 與 Rubin 算力,加速 AI 應用從概念驗證走向大規模商用。對 NVIDIA 而言 AWS 為期兩年鎖定採購提供可預測大額營收,有助穩定市場預期並強化投資者信心。消息公布後兩家公司股價於盤後交易中均小幅上揚。

然而規模越大挑戰亦隨之增加。NVIDIA 能否按時完成 100 萬顆 GPU 及 Groq 晶片供應承諾將成為 2027 年初財報關鍵考驗。隨著 AI 推論成為下一個競爭焦點,NVIDIA 與 AWS 聯手建立算力格局將如何重塑雲端競爭秩序值得持續觀察。

 

資料來源:
ReutersAmazon Web Services官方部落格NVIDIA Developer BlogSiliconAngleTradingPedia

Tags : awsGPUNVIDIA人工智能雲端運算
Pierce

The author Pierce

喜歡尋找本地潛力 Startups 與讀者分享, 對企業資訊安全特別注意