半導體設計巨頭 ARM 於 2025 年 10 月正式獲委任為開放運算計畫(Open Compute Project,OCP)董事會成員,與 AMD、NVIDIA 並列,共同主導下一代 AI 資料中心的開放標準制定。此舉標誌著 ARM 從 IP 授權商躍升為產業標準制定者,將與 Meta、Google、Intel 及 Microsoft 等科技巨頭在功耗達 100 戶美國家庭用電量的新一代 AI 機架系統中,推動可互通的融合型運算架構。本文將深入探討 ARM 的戰略布局、小晶片技術革命,以及這對全球 AI 基礎設施產業鏈的深遠影響。
AI 資料中心面臨史無前例的電力挑戰
資料中心產業正經歷根本性轉型,從通用伺服器架構轉向專為 AI 設計的機架級系統。ARM 資深副總裁暨基礎設施事業群總經理 Mohamed Awad 指出,單一 AI 機架在 2025 年的運算能力已相當於 2020 年頂尖超級電腦,但耗電量卻等同約 100 戶美國家庭的總用電量。國際能源署(IEA)報告顯示,全球資料中心在 2024 年消耗約 415 TWh 電力(佔全球總需求 1.5%),預計到 2030 年將增倍至 945 TWh,AI 工作負載是驅動此成長的主要因素。與傳統伺服器機架運行於 7-10 kW 不同,AI 運算機架的功率密度已達 30-100+ kW,對電力架構與冷卻系統帶來巨大壓力。
ARM 提出的「融合型 AI 資料中心」概念,目的是透過最大化單位面積的 AI 運算密度,降低 AI 執行所需的整體功耗與對應成本。ARM Neoverse 架構現已成為 AI 技術堆疊各層級的核心支柱,協助廠商改善資料轉換為詞元(token)的精準性、詞元對高階 AI 模型與 AI 代理的驅動,以及 AI 在科學、醫療與商業應用中的實際價值。AWS、Microsoft、Oracle 等主要雲端服務供應商均已大規模採用基於 ARM 架構的 Graviton 處理器,AWS 在過去 2 年部署的運算容量中有 50% 基於 Graviton 產品。
ARM 貢獻開放標準打破小晶片生態系統壁壘
為加深小晶片領域的產業合作,ARM 近期向 OCP 貢獻「基礎小晶片系統架構」(Foundation Chiplet System Architecture,FCSA)規格定義。FCSA 延續 Arm 小晶片系統架構(CSA)的研發成果,針對產業需求建立一套不依賴特定供應商、且不連結 CPU 架構的中立框架。該規格為小晶片系統與介面定義提供統一標準,除了能加速小晶片設計與整合,亦促進大規模重用與互操作性。
IDTechEx 報告指出,小晶片市場預計將從 2024 年的 90.6 億美元(約港幣 706.68 億元)成長至 2035 年的 2,235.6 億美元(約港幣 1.74 兆元),年複合成長率達 43.7%。小晶片技術透過模組化設計克服了傳統單晶片的光罩尺寸限制與記憶體牆問題,提供更高的彈性、個人化能力與成本效益。AMD 的 EPYC 處理器和 Intel 的 Ponte Vecchio GPU 均已採用小晶片設計,展現此技術在高效能運算應用的重要性。ARM 的 FCSA 規格目標是建立供應商中立的生態系統,讓來自不同廠商的最佳小晶片能無縫整合於單一封裝中。
合作夥伴已推出首批符合 ARM CSA 規格定義的小晶片產品,且多項設計專案正在進行中。基於此成果,ARM 進一步擴大 ARM 全面設計(Arm Total Design)生態系的規模,新增 10 家合作夥伴,包括世芯電子(GUC)、日月光(ASE)、Astera Labs、擎亞電子(CoAsia)、默升科技(Credo)、Eliyan、系微(Insyde Software)、Marvell、Rebellions、威宏科技(VIA NEXT)。這些合作夥伴在先進封裝、互連技術及系統整合領域的專業實力,將推動新一輪標準制訂與創新過程。
產業巨頭競逐AI基礎設施主導權
在 AI 資料中心領域,產業競爭態勢正在重塑。NVIDIA 在 2024 年資料中心 GPU 營收超過 308 億美元(約港幣 2,402.4 億元)(截至 2024 年 10 月 27 日的季度),年增 112%,持續保持市場主導地位。然而 AMD 正透過開放生態系統策略積極追趕,2024 年第三季資料中心營收達 35 億美元(約港幣 273 億元),年增 122%。AMD 行政總裁蘇姿丰(Lisa Su)在 2025 年 6 月的 Advancing AI 活動中宣布,AMD 的 Instinct MI355X GPU 相較 NVIDIA 的 B200 GPU,每美元可提供高達 40% 的詞元處理量。
科技巨頭正投入前所未有的資本支出建設 AI 基礎設施。Microsoft、Alphabet、Amazon、Meta 四大科技公司在 2024 年的合併資本支出達 2,450 億美元(約港幣 1.91 兆元),預計 2025 年將進一步增加。Microsoft 宣布在 2025 財年投資 800 億美元(約港幣 6,240 億元)用於 AI 資料中心,其中超過半數投資於美國基礎設施。Meta 行政總裁朱克伯格(Mark Zuckerberg)表示,Meta 計劃在 2028 年底前投資 6,000 億美元(約港幣 4.68 兆元)於美國基礎設施。這些投資包括路易斯安那州的 Hyperion 資料中心(佔地 2,250 英畝,預計耗資 100 億美元(約港幣 780 億元),提供 5 GW 運算能力)和俄亥俄州的 Prometheus 資料中心。
OCP 在 2025 年 10 月的全球峰會上宣布擴展「開放 AI 系統」計畫,新增「開放 AI 資料中心」戰略倡議(Open Data Center for AI Strategic Initiative),專注於電力、冷卻、機械系統和管理遙測等關鍵資料中心基礎設施挑戰。由 Google、Meta 和 Microsoft 共同發起的開放信函獲得 OCP 董事會和各利害關係人的支援,目的是建立資料中心基礎設施標準,使先進高密度 AI 裝置的部署如同傳統運算一般順暢。近期重要貢獻包括 Google、Meta 和 Microsoft 共同開發的 Diablo 400 電力機架側車、Google 開發的冷卻劑分配單元,以及 Meta 創建的 Clemente 高效能 AI 運算托盤。
從半導體IP到生態系統推手的策略轉型
ARM 的策略轉型反映其在 AI 時代的長期定位。目前運送至頂級超大規模雲端服務供應商的運算能力中,近 50% 由 ARM 架構驅動,使其成為從最小感應器到最強大資料中心的最普及運算平台。ARM 在 2023 年推出的 Total Design 生態系統在 1 年內規模增倍,達到近 30 家參與公司,驅動全球矽晶片創新。2024 年 11 月,ARM 與 Samsung Foundry、ADTechnology 和 Rebellions 合作開發基於 Neoverse CSS V3 的 AI CPU 小晶片平台,用於雲端、高效能運算和 AI/ML 訓練與推論。
同時 ARM 將 FCSA 規格擴展至邊緣運算和汽車等關鍵領域。ARM 汽車事業部產品與解決方案副總裁 Suraj Gajendra 強調,開放小晶片標準對於實現下一代車輛所需的安全性、效能和可擴展性至關重要。隨著車輛變得更加 AI 定義,模組化小晶片為縮短開發週期、降低成本和實現可擴展的系統單晶片提供了引人注目的途徑。
企業影響與未來趨勢
ARM 加入 OCP 董事會並推動 FCSA 開放標準,將為企業帶來三大關鍵影響。首先,降低 AI 基礎設施的進入門檻,中小型企業可透過標準化小晶片快速組建個人化解決方案,無需從零開發完整晶片。其次,促進供應鏈多元化,打破單一供應商鎖定,企業可靈活選擇最佳元件組合,提升議價能力與供應韌性。第三,加速 AI 應用落實,從雲端到邊緣到汽車的統一標準,將縮短產品開發週期,推動 AI 技術在各垂直領域的快速普及。
展望未來,AI 資料中心產業將朝向更開放、更模組化、更節能的方向發展。隨著功耗挑戰日益嚴峻(BloombergNEF 預測美國資料中心電力需求將從 2024 年的 35 GW 增至 2035 年的 78 GW),融合型架構與小晶片技術的結合將成為主流解決方案。ARM 的生態系統策略能否挑戰既有市場格局,將取決於 FCSA 標準的採用速度與 Total Design 合作夥伴的執行力。對於企業決策者而言,現在正是重新評估 AI 基礎設施策略、擁抱開放標準、建立多元供應鏈的關鍵時刻。
資料來源: Arm Official Newsroom Open Compute Project Foundation International Energy Agency Research Grand View Research Futuriom Industry Analysis