close

IT 基建

IT 基建人工智能業界消息

經濟學人:中國晶片產業 2026 年將震驚世界 AI 自主化進入關鍵轉折期


經濟學人:中國晶片產業 2026 年將震驚世界 AI 自主化進入關鍵轉折期

《經濟學人》(The Economist)預測 2026 年中國晶片產業將讓全球驚訝,從 DeepSeek 突破性 AI 模型到華為、寒武紀等企業在設計與製造端的快速進展,顯示中國正加速實現人工智能晶片自主化目標。這場由美國技術封鎖倒逼出的產業革命,正重塑全球半導體競爭格局,2025 年中國晶片設計市場達 380 億美元 (約港幣 2,964 億元),預計 2027 年將增至 710 億美元 (約港幣 5,538 億元),本土供應商市場佔有率可望突破 50%。

DeepSeek 效應引爆產業鏈變革

2025 年 1 月,中國新創企業 DeepSeek 推出的 AI 模型性能可媲美美國同級產品,卻未使用 Nvidia 尖端 AI 晶片,這項突破震驚全球科技界。DeepSeek 於 8 月宣布採用 FP8 數據格式,雖降低精度但大幅提升能效,使中低性能晶片也能快速運行 AI 模型,寒武紀晶片已支援 FP8 格式,華為下一代 AI 晶片預計跟進。然而《金融時報》報導指出,DeepSeek 原計畫使用華為昇騰晶片訓練 R2 模型時遭遇持續技術問題,最終被迫改回使用 Nvidia 系統,凸顯國產晶片在高強度訓練場景仍存在瓶頸。

本土晶片設計商市場佔有率飆升

雖然 Nvidia 在中國 AI 晶片市場仍佔主導地位,但華為、寒武紀、沐曦等中國企業已搶下約五分之二市場佔有率。寒武紀 2025 年上半年錄得創紀錄利潤,股價在 7 月至 9 月期間飆升 124%,市值達 5,210 億元人民幣 (約港幣 5,626.8 億元),一度超越日本最大晶片設備製造商 Tokyo Electron。高盛預期寒武紀特製 AI 晶片出貨量將從 2025 年的 14.5 萬顆增至 2030 年超過 230 萬顆,其最新「思元 590」晶片效能約達 Nvidia A100 的 90%。沐曦於 2025 年 7 月發佈曦雲 C600 GPU 晶片,預計年底進入風險量產階段,而摩爾線程已完成 IPO 輔導,計劃在科創板上市募資約 80 億元人民幣 (約港幣 86.4 億元) 用於次世代晶片研發。

科技巨頭轉向自研晶片生態

中國政府已禁止國內企業使用 Nvidia 晶片,促使阿里巴巴、百度等科技巨頭紛紛轉向自研晶片訓練 AI 模型。阿里巴巴自 2025 年初開始部署其真無處理器用於較小型 AI 模型,百度則測試使用崑崙 P800 晶片訓練其文心 AI 模型新版本。雖然兩家企業仍在最先進模型上使用 Nvidia 處理器,但阿里巴巴內部員工表示其自研處理器已能與 Nvidia 受限版本競爭。上海要求 2027 年前數據中心 70% 晶片採用國產設計或製造,北京更訂下同年完全獨立目標,貴陽則要求新設施 90% 晶片來自中國供應商。

製造端良率突破成關鍵戰場

華為輪值董事長徐直軍宣布昇騰晶片路線圖:2026 年第一季推出昇騰 950PR,第四季推出昇騰 950DT,2027 年第四季推出昇騰 960,2028 年第四季推出昇騰 970。華為計劃在 2025 年底啟動專用 AI 晶片工廠生產,另外兩座工廠預計 2026 年投產,三座工廠合計產能將超過中芯國際現有同類生產線。中芯國際計畫將 7 奈米及以下晶片產能翻倍,保守估計 2025 年底總產能將達 4.5 萬片/月,2026 年增至 6 萬片/月,2027 年進一步提升至 8 萬片/月。《金融時報》報導指出,中芯國際生產華為昇騰 910C 的良率已從一年前的 20% 提升至可獲利的 40%,目標是達到台積電為 Nvidia 生產 H100 晶片的 60% 良率水準。

能效與性能權衡的中國路徑

中國晶片設計通常以犧牲能效換取性能,華為 CloudMatrix 系統由 384 顆昇騰晶片組成,運算能力可抗衡 Nvidia 頂尖產品,但耗電量卻是對方四倍以上。業界正探索晶片設計與軟件協同改良的新方法,DeepSeek 的 UE8M0 FP8 變體能進一步降低運算能力、儲存與頻寬需求,晶片產業分析師董導立指出這代表中國 AI 領域軟硬件協同的新階段。雖然中芯國際必須依靠舊款曝光機挖掘潛力,良率僅為台積電一半,但 SemiAnalysis 預測中國晶圓廠仍可生產數百萬顆 AI 晶片,足以滿足國內大部分需求。

地緣政治加劇技術脫鉤風險

美國自 2019 年起限制先進晶片及製造裝置出口,2025 年更禁止 Nvidia H20 晶片銷往中國,雖然該晶片是專為符合先前限制而設計。荷蘭政府在美國壓力下撤銷 ASML 深紫外光刻系統出口許可,並暫停軟件更新、技術支援與備件供應。歐洲智庫歐洲對外關係委員會建議若中國武器化稀土出口,歐盟應考慮擴大對 DUV 機台的管制,這將迫使 ASML 放棄佔其總營收 25% 以上的中國市場。ASML 行政總裁 Christophe Fouquet 表示中國要生產 EUV 機台仍需多年時間,但該公司 2025 年第三季來自中國的銷售達 24 億歐元 (約港幣 203.52 億元),佔系統銷售營收 42%。

2026 產業前瞻與企業影響

中國「十五五」計劃 (2026-2030) 將半導體與 AI 領域科技自立自強列為核心任務,2024 年中國半導體產業營收突破 1 兆人民幣 (約港幣 1.08 兆元),AI 核心產業規模超過 5,000 億人民幣 (約港幣 5,400 億元)。TechInsights 數據顯示,中國半導體產能預計 2029 年達 8.75 億平方吋,五年內增長 40%,雖然面臨美國出口管制,中國企業在 28 奈米及以上成熟製程已佔據全球顯著產能市場佔有率。華為昇騰 910B 性能已達 Nvidia H20 的 85%,即將推出的 920 預計將縮小差距,顯示技術封鎖反而加速中國企業自主創新過程。雖然本土企業可能在能效與性能上暫時無法超越全球領先者,但到 2026 年底有望滿足國內大部分需求,這將重塑全球半導體供應鏈並影響跨國科技企業在華策略佈局。對於依賴中國市場的國際半導體設備商與晶片設計廠,技術脫鉤趨勢將迫使其重新評估業務結構;而中國科技企業雖獲政策支援,但仍需在技術追趕與商業化落實間取得平衡,未來兩年將是驗證中國晶片自主化戰略成敗的關鍵窗口期。

資料來源:鉅亨網The EconomistFinancial TimesSemiAnalysisReuterseuters

read more
IT 基建人工智能雲端服務

Microsoft 資料中心能耗危機:AI 熱潮下能源消耗突破歷史新高


Microsoft 資料中心能耗危機:AI 熱潮下能源消耗突破歷史新高

Microsoft 2024 年資料中心電力消耗達到驚人的 176 億美元(約港幣 1,372.8 億元),較前一年急增 4.4%,這個數字相當於美國全國能源消耗的 4.4%。隨著 OpenAI 等 AI 巨頭對運算需求的持續攀升,這場由人工智能驅動的能源革命正在重塑全球科技產業格局,也將企業推向前所未有的營運成本壓力與環境責任挑戰。本文將深入剖析 Microsoft 如何應對每年新增 3,000 個資料中心的能源需求、GPU 供應鏈瓶頸,以及這場 AI 基礎建設軍備競賽對全球企業的深遠影響。

AI 運算需求引爆能源消耗新紀錄

2024 年 Microsoft 資料中心的能源消耗突破歷史新高,電力成本高達 176 億美元(約港幣 1,372.8 億元),佔美國全國能源使用量的 4.4%。這個驚人的增長主要源於 OpenAI 等合作夥伴對 GPU 運算資源的龐大需求,單是 OpenAI 在 2025 年 11 月初就與 Amazon Web Services 簽署了價值 380 億美元(約港幣 2,964 億元)、為期 7 年的雲端服務協議,立即開始使用數十萬顆 NVIDIA GPU 進行 AI 模型訓練與推理運算。根據勞倫斯伯克利國家實驗室的預測,到 2028 年,AI 相關運算將佔用資料中心總電力消耗的 50% 以上,相當於美國 22% 家庭的年度用電量。

Microsoft 為了滿足這股需求,正以前所未有的速度擴張全球資料中心網絡。2025 年 11 月 11 日,Microsoft 宣布將在葡萄牙 Sines 港口城市投資 100 億美元(約港幣 780 億元)建設 AI 資料中心,計劃部署 12,600 顆先進 GPU,這是歐洲最大規模的 AI 基礎建設投資之一。此外 Microsoft 還與 NVIDIA、Nebius 等供應商簽署了多項價值數百億美元的 GPU 租賃協議,僅與 IREN 的合作就達 97 億美元(約港幣 756.6 億元),專門用於取得 NVIDIA 即將推出的 GB300 系列 GPU。這些協議突顯了一個殘酷現實:AI 運算需求的增長速度已經遠遠超越現有硬件供應能力。

全球資料中心建設正進入空前的擴張期。根據 Allianz Commercial 的報告,到 2030 年全球資料中心建設支出預計將達到 7 萬億美元(約港幣 54.6 萬億元),其中美國和中國是主要推動力。單一資料中心項目的建設成本已從過去的 2 億至 3 億美元(約港幣 15.6 億至 23.4 億元)飆升至超過 200 億美元(約港幣 1,560 億元),平均規模的設施成本也達到 5 億至 20 億美元(約港幣 39 億至 156 億元)。這場建設熱潮背後,是科技巨頭們對 AI 運算能力的瘋狂競逐,Amazon、Microsoft 和 Google Cloud 3 大雲端供應商在 2025 年第 2 季度就佔據了全球雲端營收的 3 分之 2。

能源效率困境:PUE 指標背後的真相

雖然 Microsoft 不斷強調能源效率改善,但實際數據揭示了一個更複雜的現實。2024 年,Microsoft 部分資料中心的電力使用效率(PUE)達到 1.56,這個數字意味著每消耗 1.56 度電,只有 1 度真正用於 IT 運算,其餘 0.56 度被冷卻系統、照明和配電損耗等非運算用途消耗掉。相比之下,業界先進的資料中心如美國國家再生能源實驗室(NREL)的設施已經實現年均 PUE 1.036 的卓越表現,甚至有部分設施達到 1.06 或更低。

這種效率差距並非技術能力不足,而是 AI 運算的特殊需求所致。配備高密度 GPU 的 AI 伺服器產生的熱量遠超傳統伺服器,需要更強大的冷卻系統來維持運作。NVIDIA 的 H100 和即將量產的 GB300 系列 GPU 雖然運算能力強大,但功耗和散熱需求也同步攀升。Microsoft 在 2025 年 10 月部署的首個大規模 GB300 生產集群,包含超過 4,600 個 NVIDIA GB300 NVL72 系統,每個機架配備 72 顆 Blackwell Ultra GPU,總計超過 330,000 顆 GPU,其散熱挑戰可想而知。

能源碳排強度問題更加嚴峻。根據 MIT Technology Review 的研究,美國資料中心使用的電力碳排強度比全國平均水平高出 48%。這是因為為了滿足 AI 運算的即時需求,資料中心往往需要依賴天然氣等碳密集型能源,而非再生能源。到 2028 年,AI 專用運算的年度電力消耗預計將達到 150 至 300 太瓦時(TWh),相當於從地球到太陽往返超過 16,000 次所需的能源。這個趨勢正在推動資料中心電力需求佔美國總電力消耗的比例從目前的 4.4% 激增至 12%。

GPU 供應鏈瓶頸與市場重組

NVIDIA 在 AI GPU 市場的主導地位正在創造前所未有的供應鏈壓力。根據 TrendForce 的研究,2025 年 Blackwell 系列 GPU 預計將佔 NVIDIA 高階 GPU 出貨量的 80% 以上,但即使如此仍無法滿足市場需求。台灣代工製造商如鴻海(Foxconn)、廣達(Quanta)、緯創(Wistron)和緯穎(Wiwynn)都在爭奪 GB300 伺服器的組裝訂單,鴻海更取得最大份額,生產配備 72 顆 Blackwell GPU 的最高規格版本。

這場供應鏈競賽已經改變了全球製造業的優先順序。業界消息指出,台灣代工廠正在將 AI 伺服器生產置於傳統消費電子產品(包括 Apple iPhone)之上,目標是在 2025 年 9 月開始大規模出貨 GB300 伺服器。根據 Gartner 的數據,AI 伺服器需求預計在 2025 年同比增長 147%,鴻海高層預期 AI 伺服器將佔其伺服器營收的 50% 以上,這標誌著從傳統消費電子到 AI 基礎設施的戲劇性轉變。

GPU 短缺問題至少將持續到 2026 年。雖然 NVIDIA 計劃在 2026 年第 3 或第 4 季度開始量產下一代 Rubin GPU,但這個時間點與當前 Blackwell Ultra GB300 的全面量產時間大致相同,甚至可能更早。OpenAI 等企業正在積極尋求替代方案,除了與 Microsoft 的長期合作外,還簽署了與 Oracle 價值 3,000 億美元(約港幣 2.34 萬億元)、與 AMD、Broadcom 等超過 1.4 萬億美元(約港幣 10.92 萬億元)的基礎設施開發協議。然而,由於 NVIDIA CUDA 平台和專用 Tensor Core 在 AI 工作負載上的性能優勢難以匹敵,市場對 NVIDIA GPU 的集中需求短期內難以改變。

企業競爭格局的深刻變革

Microsoft 與 OpenAI 的合作關係正在經歷重大調整,這將重塑整個 AI 產業的競爭格局。2025 年 9 月,雙方簽署了一份非約束性諒解備忘錄,解決了長達數月的合作緊張關係。根據新協議,Microsoft 在 OpenAI Group PBC 持有約 1,350 億美元(約港幣 1.053 萬億元)的股權(約 27% 股份),並保留對前沿模型的 Azure API 獨家權利直到宣布實現通用人工智能(AGI),但任何 AGI 宣告必須經過獨立專家小組驗證。Microsoft 的智慧財產權現已延長至 2032 年,並包含 AGI 後的模型,而 OpenAI 現在可以自由地在 Microsoft 之外尋求運算和部署合作夥伴。

這種開放性正在推動 AI 基礎設施市場的多元化。OpenAI 與 AWS 的 380 億美元(約港幣 2,964 億元)協議標誌著其首次在 Microsoft 之外建立大型雲端合作關係,將立即開始使用 AWS 位於美國的數十萬顆 NVIDIA GPU,未來還將擴展容量。AWS 總裁 Dave Brown 表示,他們正在為 OpenAI 建立完全獨立的運算容量,部分容量已經可用。與此同時,Microsoft 也在整合 Anthropic 的 Claude 模型,顯示獨家 AI 合作時代已經結束,取而代之的是多供應商企業 AI 時代。

這場 AI 基礎設施軍備競賽的規模令人震驚。OpenAI 在 2025 年宣布了總計約 1.4 萬億美元(約港幣 10.92 萬億元)的開發協議,涉及 NVIDIA、Broadcom、Oracle 和 Google 等多家企業。部分分析師開始質疑是否存在 AI 泡沫,以及美國是否擁有足夠資源來實現這些雄心勃勃的承諾。然而 NVIDIA 執行長黃仁勳在 2025 年 10 月 27 至 29 日華盛頓 GTC 大會上駁斥了 AI 泡沫的擔憂,同時公布了下一代產品路線圖。根據 Bain 的最新全球資料中心預測,超大規模科技公司在 2025 年的投資不但沒有如預期般縮減,反而顯著增加,並預計在未來幾年持續成長。

AI 時代的可持續發展挑戰

Microsoft 資料中心佔全球能源消耗 20% 的說法雖然誇大,但其能源足跡確實在快速擴大。根據 BloombergNEF 的預測,美國資料中心電力需求將從 2024 年的 35 GW 增加 1 倍以上,到 2035 年達到 78 GW,屆時將佔美國總電力需求的 8.6%,是目前 3.5% 的 2 倍多。實際能源消耗增長將更加陡峭,平均每小時電力需求將從 2024 年的 16 GWh 增至 2035 年的 49 GWh,接近 3 倍。

這種能源需求激增正在推動企業尋求多元化能源解決方案。科技巨頭們正在簽署新核電廠協議、重啟舊核電廠,並與公用事業供應商談判大規模合約。然而 資料中心開發面臨現實挑戰,從取得土地、電力和許可證,到應對複雜的建設流程,BloombergNEF 估計在美國,資料中心開發從初始階段到全面運營通常需要約 7 年時間,其中建設前期 4.8 年、建設期 2.4 年。這些時間和資源限制是預測相對保守的原因,而非對 AI 市場潛力的懷疑。

未來展望:效率革新與產業重塑

面對能源消耗和成本壓力,AI 產業正在探索多種技術路徑來提升效率。DeepSeek V3 的「專家混合」(Mixture of Experts)架構展示了一種創新方向,透過多個較小、專業化模型的協作網絡來改善訓練效率,為遏制快速攀升的電力需求提供了潛在解決方案。在冷卻技術方面,業界正在採用熱通道 / 冷通道隔離、液冷系統、室外空氣經濟器等策略來降低非 IT 設備的能源消耗。例如,某個俄勒岡州資料中心透過使用水側經濟器將 PUE 降至 1.06,甚至將伺服器室溫度從 65°F 提升至 75 至 80°F 這樣簡單的調整也能減少不必要的過度冷卻,節省電力並降低碳排放。

AI 驅動的設計和營運改良正在加速資料中心效率改善。專業工具和企業(如 Cove)正在運用智慧演算法協調複雜系統,使得在開發時間大幅縮短的情況下實現 1.1 左右的超高效 PUE 成為可能。這種方法除了滿足開發商對速度和投資報酬率的需求外,也回應了永續發展倡議者對更環保、精實資料中心的期待。此外 先進設施正在探索廢熱再利用,將伺服器產生的熱能用於為鄰近建築物或溫室供暖,雖然這不會直接計入 PUE,但能改善整體能源價值並支持更廣泛的永續目標。

工作負載模式的轉變也在重塑基礎設施策略。根據 Bain 的 分析,AI 工作負載正從單純的模型訓練轉向更加重視大規模推理,這部分源於企業 AI 應用案例的明確進展。測試時運算(test-time compute)正在重塑基礎設施策略、經濟效益和架構,對資料中心託管與自建、晶片多樣性和電力配置都產生重大影響。雖然超大規模企業的投資在 2025 年顯著增加並預計持續成長,但他們也更加注重資本效率,在新部署(特別是 AI 訓練)方面變得更加挑剔。這種從瘋狂擴張到策略性、選擇性、電力受限和執行導向的成長階段轉變,意味著未來的贏家,其致勝關鍵除了規模外,更在於精準應對複雜性的能力。

資料來源: Reuters Amazon Web Services MIT Technology Review Microsoft Azure Allianz Commercial

 

read more
IT 基建人工智能企業趨勢業界消息

AI 革命的十字路口: 六位巨擘齊聚倫敦 給出截然不同的答案


AI 革命的十字路口: 六位巨擘齊聚倫敦 給出截然不同的答案

當 Nvidia CEO 黃仁勳、Meta 首席 AI 科學家 Yann LeCun、「深度學習教父」Geoffrey Hinton、蒙特利爾大學教授 Yoshua Bengio、Stanford AI 研究院共同創辦人李飛飛,以及 Nvidia 首席科學家 Bill Dally 因共獲 2025 年伊麗莎白女王工程獎而齊聚倫敦時,全球科技界屏息以待。

四十年孤獨換來的集體頓悟

AI 革命並非一夜之間誕生,而是源自這群科學家長達 40 年的堅守與突破。Geoffrey Hinton 回憶起 1984 年那個改變一切的時刻——他在極其簡陋的電腦上訓練了一個微型模型預測序列中的下一個詞,「我發現它竟然能學到詞語的含義」,這正是今日所有大型語言模型最原始的雛形。同一時期,Yann LeCun 作為一個「懶惰」的工程師,不想逐行編寫程式創造智能,而是著迷於讓機器自己學會智能——這個看似偷懶的想法,成為了機器學習的核心哲學。

然而思想的火花需要燃料才能點燃。2006 年,當時還是年輕教授的李飛飛發現所有演算法都受困於數據匱乏,於是做出了在當時看來極其瘋狂的決定:耗時 3 年手動標註 1,500 萬張相片,建立了名為 ImageNet 的資料集。這個資料集在 2012 年徹底改變了機器學習的軌跡,使深度學習模型的錯誤率降低了 41%,證明了深度學習的可行性並引發了 AI 研究的爆炸性增長。與此同時,黃仁勳和他的團隊正在建造越來越強大的「引擎」——Nvidia 的 GPU。

泡沫還是革命?黃仁勳的精妙回答

當主持人拋出「AI 是否處於泡沫之中」這個尖銳問題時,現場氣氛瞬間緊張。這個問題並非無的放矢——2025 年 10 月,矽谷對 AI 泡沫的擔憂急劇升溫,早期 AI 先驅 Jerry Kaplan 警告「當泡沫破裂時,將是災難性的,除了對 AI 領域,對整體經濟亦然」。AI 企業今年貢獻了美國股市 80% 的漲幅,Gartner 預測全球 AI 支出在 2025 年底前將飆升至 1.5 萬億美元(約港幣 11.7 萬億元)。

黃仁勳的回答堪稱經典。他將當前與 21 世紀初的互聯網泡沫進行對比:當年整個行業鋪設了巨量光纖,但其中絕大多數都是未被點亮的「暗光纖」,需求遠遠跟不上建設。而今天,「幾乎你能找到的每一塊 GPU,都在被點亮並投入使用」。他強調,我們正在創造一個全新的產業——智能工廠。過去的軟件是「工具」,而 AI 第一次成為了「生產力」本身。每一次你問 ChatGPT 問題,它都在為你實時「生產」答案,這個生產過程需要巨大的計算能力。Nvidia 在 2025 年推出的 GB300 系統,單個節點就能提供約 40 petaflops 的算力——相當於 2018 年需要 18,000 個 Volta GPU 的整個 Sierra 超級電腦,6 年內實現了 4,000 倍的性能提升。

然而 Yann LeCun 提出了截然不同的觀點。他認為泡沫在於「認為當前的大型語言模型範式最終能夠發展到人類水平的智能」這一想法,他個人並不相信這一點,並認為需要根本性的突破。李飛飛則強調 AI 仍然是一個非常年輕的領域,除了語言之外,還存在廣闊的「空間智能」等前沿領域有待開拓。Reuters 在 2025 年 11 月的分析指出,AI 可能同時是泡沫和突破:「AI 有潛力塑造商業和經濟的未來,但飆升的股票估值可能意味著不可持續的泡沫」。

通往人類級AI的六條不同道路

當被問及「我們離人類級 AI 還有多遠」這個終極問題時,6 位頂尖專家給出了 6 幅截然不同的未來圖景。「務實派」黃仁勳認為這個問題不重要,「它已經發生了」——我們已經擁有足夠的通用智能轉化為大量有用應用,糾結於學術上的「奇點」定義沒有意義。「協作派」Bill Dally 則指出這是個錯誤的問題,我們的目標從來不是創造 AI 來取代人類,而是「增強」人類,就像飛機會飛但飛行方式與鳥完全不同。

「開拓派」李飛飛提醒我們甚至還沒搞懂「智能」的全貌。她強調人類智能遠不止語言,在空間感知、與物理世界互動方面的能力是今天最強的 AI 也望塵莫及的。「AI 作為一門學科才 70 多年,而物理學已經 400 多年了,還有廣闊的前沿等待我們去征服」。「懷疑派」Yann LeCun 直言不諱:「靠現在這條路,走不到終點」。他認為當前的大型語言模型範式無法通向真正的人類級智能,我們需要根本性的突破,才能造出哪怕和貓一樣聰明的機械人。

「預言派」Geoffrey Hinton 則給出了最具體的時間預測——20 年。這位 AI 教父用一個非常具體的標準定義問題:「多久以後,你和一台機器辯論,它永遠都能贏你?」他的答案是:「我相當肯定,在 20 年內我們會做到」。這與當前學術界的主流預測相符:2025 年 9 月對過去 15 年科學家和產業專家的調查顯示,大多數人認為 AGI 將在 2100 年前出現,更近期的分析預測 AGI 將在 2040 年左右實現。「敬畏派」Yoshua Bengio 則充滿警惕,他認為當 AI 開始具備自己研究 AI 的能力時,將成為「遊戲規則改變者」,自我迭代的速度可能會遠超人類想象。

女王工程獎背後的深層意義

2025 年伊麗莎白女王工程獎的頒發本身就是一個重要訊號。這個獎項共頒給了 7 位工程師(除上述 6 位外還包括神經網絡先驅 John Hopfield),他們將分享 50 萬英鎊的獎金。英國女王工程獎基金會主席 Lord Vallance 表示:「今年我們慶祝這 7 位工程師對現代機器學習的卓越貢獻,這一領域通過結合演算法、硬件和數據徹底改變了人工智能」。

這個獎項的深層意義在於,它承認了 AI 的勝利,除了是軟件演算法的勝利,更是工程系統的勝利。Stanford 大學在慶祝李飛飛獲獎時指出:「通過在 2025 年表彰現代機器學習,女王工程獎強調了 AI 對醫療保健、教育、氣候韌性、可及性和經濟生產力的深遠和多方面影響——以及使之成為可能的工程成就:可擴展的演算法、強大的計算硬件、穩健的資料集和基準,以及跨學科和跨大陸的開放合作」。這 7 位獲獎者的貢獻覆蓋了從基礎理論、演算法設計、大規模資料集、到專用硬件加速器的完整生態系統。

數萬億美元投資的未來走向

這場辯論的實質影響是巨大的。根據最新數據,未來 3 年全球將在 AI 技術上投資約 3 萬億美元(約港幣 23.4 萬億元)。Nvidia 正在推動「AI 工廠」的概念,包括在台灣建設配備 10,000 個 Blackwell GPU 的大規模系統,採用 GB300 NVL72 機架規模架構。OpenAI 計劃到年底前籌集 5,000 億美元(約港幣 3.9 萬億元)在德州建設 10 吉瓦設施。

然而投資回報仍然是個問題。初步研究顯示,雖然投資巨大,企業尚未從 AI 中看到實質性回報。矽谷 Stanford 商學院教授 Anat Admati 指出:「預測泡沫的時機極其困難,你無法確定自己身處泡沫之中,直到它崩潰之後」。但也有樂觀的聲音,AI 社群平台 Hugging Face 的產品開發者 Jeff Boudier 表示:「互聯網是建立在過度投資於電信基礎設施的廢墟之上的。如果 AI 基礎設施存在過度投資,它可能構成財務風險,但也將為眾多創新產品和體驗鋪平道路」。

企業領袖的關鍵決策時刻

對於企業領導者而言,這場倫敦對話傳遞了幾個清晰的訊號。首先,AI 基礎設施的投資確實有別於過去的科技泡沫——當前的算力正在被實際使用,而非閒置。Nvidia 2025 年的數據顯示,新一代 H200 GPU 提供高達 94GB HBM3 記憶體和 3.9TB/s 頻寬,能夠處理大規模模型。其次,當前的大型語言模型範式可能不是終點,企業需要為下一波技術突破做好準備。

第三,AI 的真正價值在於「增強」而非「取代」人類能力。MIT 2025 年 8 月的報告預測,早期類 AGI 系統可能在 2026 至 2028 年間開始出現,展現特定領域內的人類級推理、跨文本和物理介面的多模態能力。企業應該思考如何將 AI 整合到現有工作流程中,而非簡單地期待 AI 完全自動化。最後,正如李飛飛所強調的,「空間智能」等新興領域將開啟全新的商業機會。企業需要保持靈活性,在語言 AI 之外探索計算機視覺、機械人技術和物理世界互動等領域的應用。

這場 6 位巨擘的倫敦對話沒有給出確定的答案,但它揭示了一個更深刻的真理:AI 革命的道路並非單一,而是多元且充滿不確定性。

資料來源: Queen Elizabeth Prize for Engineering Stanford News BBC News Reuters NVIDIA Developer

 

read more
IT 基建人工智能企業趨勢數據分析

AI 承諾未兌現企業掀「回聘潮」 揭自動化與企業期望巨大落差


AI 承諾未兌現企業掀「回聘潮」  揭自動化與企業期望巨大落差

企業高層以「AI 轉型」為名大規模裁員,但一個尷尬現象正在全球職場悄然上演:那些被裁撤的員工正以「回力鏢」之姿重返原公司。這暴露了人工智能技術與企業期望的巨大落差,更揭示了一場耗資數百億美元卻成效不彰的豪賭。專門分析全球職場的機構 Visier 最新研究顯示,在調查的 142 家企業、2,400,000 名員工中,高達 5.3% 被裁員工最終獲原僱主重新聘用。這比例在過去數年保持穩定後近期明顯上升,同時 2025 年 10 月美國企業宣布裁員 153,074 人,創下 20 年來同期最高紀錄。這場「裁員回流」現象背後,是企業對 AI 能力的嚴重誤判,以及自動化技術遠未達到取代人力的承諾。

技術幻象:AI 無法完全取代人力的殘酷現實

麻省理工學院 (MIT) 2025 年發表的研究報告提供了更震撼數據:在全球企業投入 300 億至 400 億美元 (約港幣 2,340 億至 3,120 億元) 的生成式 AI 項目中,95% 組織未能從投資中獲得任何實質回報。MIT 研究團隊分析 300 個公開 AI 實施案例後發現,那些直接購買現成 AI 工具的企業,成功率遠高於試圖自行開發內部 AI 系統的公司。Visier 首席分析師 Andrea Derler 接受 Axios 專訪時直言:「AI 能完全取代所有工作的說法至今仍未證實,它往往成為裁員時最方便藉口。」她指出,雖然 AI 代理程式和數碼勞動力系統在各行業快速擴展,但這些技術極少能完全替代整個職位,大多僅能實現部分任務自動化。

這種技術侷限性迫使企業導入 AI 工具後,仍需依賴人類專業知識彌補技術缺口,最終不得不重新聘用先前裁撤的員工。麥肯錫研究機構分析進一步證實,需要「管理人員、應用專業知識和社交互動」的職業受自動化影響最小,因為機器「無法匹配人類在這些領域的表現」。MIT 另一項研究更指出,AI 在視覺任務方面僅能經濟性地自動化美國非農業勞動力薪資的 0.4%,而即使在技術上可自動化的 1.6% 工資任務中,實際上只有 23% 情況下用 AI 替代人力比僱用人工更便宜。

隱藏成本黑洞:AI 基礎設施超支吞噬裁員節省

企業高層推動 AI 轉型時往往忽略一個關鍵問題:建置 AI 基礎設施的實際成本遠超初期預算。人力資源規劃平台 Orgvue 數據揭示一個驚人事實:企業每透過裁員節省 1 美元 (約港幣 HK$7.8),實際上需額外支出約 1.27 美元 (約港幣 HK$9.9) 隱藏成本,包括遣散費、失業保險稅率上升及其他間接開支。金融服務業案例更為極端。根據 VKTR 諮詢公司 2025 年 7 月報告,許多金融服務公司規劃時預估的基礎設施成本增幅較溫和,但實際影響往往超出初期估算 3 至 4 倍。製造業巨頭部署預測性維護 AI 時發現,其儲存需求每 6 個月增倍,而醫療系統實施診斷 AI 工具後突然面臨測試環境中從未出現的網絡瓶頸。

Interactive Brokers 首席策略師 Steve Sosnick 對此表示擔憂:「我最擔心是,總有一天人們會醒悟過來說,好吧,AI 確實很棒,但也許這些錢並無真正被明智使用。」他觀察到,零售投資者正趁大型科技股下跌時買入,而機構投資者似乎正減少曝險。2025 年 10 月,財富 500 強企業為裁員支付的遣散費用已達 430 億美元 (約港幣 3,354 億元)。然而彭博社深度分析揭示,裁員真實成本遠不止遣散費。研究顯示,裁員後留任員工產出在數個月內普遍下降,因為他們需要應對焦慮和低落士氣;同時更多員工選擇主動離職,導致企業需要額外支出招聘和培訓費用;失業保險稅率也隨之上升。

企業矛盾行為:一邊裁員一邊招募 AI 人才

更諷刺現象正在科技業上演。Salesforce 在裁撤 1,000 名員工同時,卻宣布招聘 2,000 名 AI 工程師;Meta 在大規模裁員同時擴編 AI 團隊。這種「裁舊招新」策略暴露了企業真實意圖:裁員並非因為 AI 已能取代人力,而是為了騰出預算投資 AI 基礎設施。Challenger, Gray & Christmas 首席營收官 Andy Challenger 分析指出:「某些產業正經歷疫情期間招聘激增後修正,但這種情況因 AI 採用、消費者和企業支出下降,以及成本上升導致的預算限制和招聘凍結而加劇。」

2025 年 1 月至 10 月,美國企業累計宣布裁員 1,099,500 人,較去年同期 664,800 人激增 65%,創下 2020 年以來最高紀錄。值得注意的是,雖然 AI 被頻繁作為裁員理由,超過半數 (55%) 企業事後表示「對以 AI 為由的裁員感到後悔」。然而相關企業至今未公開任何可供外部驗證的 AI 效益數據,也未提供具體「被替代人力」明細,令質疑聲浪四起。

策略失算:高層低估 AI 部署的真實複雜度

Visier 的 Derler 認為,許多高階主管尚未充分評估大規模 AI 部署實際成本,或評估 AI 能否真正實現職位自動化。她指出:「許多高層主管沒有時間深入了解 AI 能做什麼,以及這將花費多少成本,相較於有多少任務和職位無法被取代。」這種策略性誤判代價正在浮現。2025 年 AI 基礎設施面臨「完美風暴」包括兩大致命因素:首先是不可能準確預測的需求。AI 專案通常從研發開始,但 DevOps 團隊必須在了解實際運算需求之前就承諾基礎設施投資。其次是全球 GPU 短缺。雲端服務商現在要求 1 至 3 年 GPU 使用承諾,即使企業只需要 4 至 6 個月訓練容量,也被迫鎖定更長期合約。

科羅拉多大學丹佛商學院管理學榮譽教授 Wayne Cascio 研究發現,採用臨時性停薪留職等成本削減措施避免裁員的企業,在 2 年後表現優於一遇到財務困難就立即裁員的企業。威斯康辛商學院和南卡羅來納大學研究更指出,裁員可能引發後續離職潮,其規模有時甚至大於裁員本身。

未來展望:企業需重新審視人力與技術平衡

這些發現反映出企業高層必須盡快解決的更大規劃難題。Derler 總結道:「裁員雖能在短期內改善財務狀況或投資者觀感,但並不會簡化長遠人力與技術戰略。」最終,誤判 AI 能帶來節省空間的企業,很可能還需再度召回此前裁掉的人才。國際貨幣基金組織 (IMF) 分析顯示,新興市場僅 40% 工作受 AI 影響,而低收入國家僅 26% 工作面臨 AI 自動化風險。歐洲經濟政策研究中心 (CEPR) 調查的商業領袖中,63% 認為 AI 不會影響高收入國家就業率。

高盛預測,到 2045 年仍有半數工作能免於完全自動化,雖然到 2030 年可能有 60% 職業受到 AI 某種程度影響。Orgvue 研究明確指出:AI 並非裁員趨勢背後真正原因,雖然這是普遍假設。對企業而言,關鍵不在於 AI 能否完全取代人力,而在於如何在數碼轉型過程中,建立起人類專業知識與 AI 工具相輔相成的混合工作模式。那些急於以技術替代人力的企業,正用昂貴代價學習一個簡單道理:在可預見未來,人類判斷力、創造力和情感智慧,仍是 AI 無法複製的核心競爭力。

 

資料來源:Axios Reuters FortuneOrgvueBloomberg

 

read more
IT 基建人工智能雲端服務

Amazon Fastnet 海底電纜計劃:雲端巨擘搶佔全球 AI 基礎設施


Amazon Fastnet 海底電纜計劃:雲端巨擘搶佔全球 AI 基礎設施

Amazon 正式宣布啟動 Fastnet 計劃,這是其首條全資擁有的海底光纖電纜,預定 2028 年投入營運。**這條連接美國馬里蘭州東岸與愛爾蘭科克郡、全長 3,000 英里(4,800 公里)的海底電纜,將超越 Amazon 以往與其他公司共同投資的海底電纜項目。根據 Amazon Web Services 公開資訊,Fastnet 的傳輸容量將超過 320 太比特每秒(Tbps),相當於同時播放 1,250 萬部高清電影或處理數百萬次人工智能訓練任務。這項投資突顯科技巨頭在全球數碼基礎設施競賽中的激烈角逐。

核心事實:從共同投資到獨立掌控的戰略升級

Amazon 此舉標誌著其基礎設施戰略的重要轉變。根據 AWS 核心網絡副總裁 Matt Rehder 在接受 CNBC 採訪時所述,「海底電纜對 AWS 至關重要,對任何跨洋國際連接而言都是如此。」此前,Amazon 曾參與 Jako、Bifrost 和 Havfrue 等多個海底電纜計劃,但這些均為聯合投資性質。Fastnet 則打破這一模式,成為 Amazon 首次獨立承擔的海底光纖工程,反映出該公司對全球網絡自主性的重視。這條電纜的設計容量超過 320 Tbps,可在 3 秒內傳輸整個數碼化美國國會圖書館 3 次。Matt Rehder 進一步強調,衛星連接雖然可行,但因其延遲較高、成本更昂貴,且無法提供客戶和互聯網所需的容量和吞吐量,因此海底光纖仍然是首選方案。這項投資直接應對雲端運算、人工智能和邊緣運算領域對 AWS 日益增長的需求。根據 Amazon 第三季度財報,AWS 業務增長率達 20.2%,創 3 年新高,其中 AI 基礎設施需求成為主要增長動力。

多角度分析:延遲最佳化與金融交易的毫秒戰爭

對 AWS 客戶而言,Fastnet 將顯著降低美東與歐洲資料中心之間的延遲,這對金融交易尤為關鍵。根據歐洲央行經濟研究報告,低延遲與高頻寬可降低跨國交易的固定成本,並減弱距離、資訊不對稱等空間摩擦。金融研究機構指出,最快的跨大西洋交易電纜可在 60 毫秒內在倫敦與紐約之間傳輸市場資料,毫秒級差距往往決定高頻交易演算法的成敗。根據 AWS 全球網絡規劃與收購主任 David Selby 披露,Fastnet 採用先進的光學切換分支單元技術,能夠應對未來拓撲變化需求,特別是為處理不斷增長的 AI 流量負荷而設計。該電纜亦配備了堅固的電纜裝甲和額外的保護鋼線層,以防止自然災害和人為損傷。Amazon 在官方聲明中特別強調,該系統在近岸區域採用「robust armoring」技術,深埋海底以最大程度防止切割。2024 年,AWS 已在 AI 基礎設施上投入逾 3.8 吉瓦(GW)容量,而 Fastnet 正是這一戰略的核心延伸。

全球競爭格局:科技巨頭爭奪海底基礎設施主導權

Amazon Fastnet 計劃的推出並非孤立事件,而是全球科技巨頭在海底基礎設施領域激烈競爭的縮影。Meta 計劃投資超過 100 億美元(約港幣 780 億元)建造 Waterworth 項目,這將成為歷史上最長的海底電纜系統,跨越 50,000 公里,連接美國、印度、南非與巴西等關鍵地區。Google 則已投資超過 30 條全球海底電纜,包括最新宣布的 Sol 系統,連接美國、百慕大、亞速爾群島與西班牙。Microsoft 同樣積極布局海底電纜基礎設施。根據 Future Market Insights 報告,全球海底電纜市場 2025 年市場規模達 309 億美元(約港幣 2,410.2 億元),預計 2035 年將增長至 569 億美元(約港幣 4,438.2 億元),複合年增長率達 6.3%。業界人士認為,這些科技巨頭已從「租用網絡」時代邁入「控制速度」時代,建設專有海底基礎設施成為確立數碼主權的戰略選擇。然而,牛津互聯網研究院的研究指出,這種趨勢也引發了政策制定者對數碼基礎設施日益集中化的擔憂。

背景脈絡:海底電纜的脆弱性與韌性需求

海底電纜的重要性不容小覷——全球超過 95% 國際資料與語音通訊依賴這些 scienza 隱形的「數碼動脈」傳輸。然而近年來這些基礎設施面臨前所未有的安全挑戰。根據 Recorded Future 安全研究報告,2024 年報告的海底電纜事故達 46 宗,創 2013 年有統計以來的新高,較 2023 年的 15 宗劇增。其中最具影響力的 3 宗事故分別發生在紅海、西非與南非。2024 年 2 月,紅海事件損毀 AAE-1、EIG 與 SEACOM 電纜,導致亞洲、歐洲與中東之間 25% 流量中斷。同年 3 月,西非海岸發生岩石滑坡,摧毀 WACS、ACE、MainOne 與 SAT-3 四條電纜,造成至少 16 個中西非國家的網絡中斷,修復成本高達 800 萬美元(約港幣 6,240 萬元)。2024 年 11 月,波羅的海更發生 BCS 東西走廊與 C-Lion1 電纜同時受損事件,引發 NATO 對混合戰爭的擔憂。根據 Submarine Networks 資料,捕魚裝置與船舶錨鏈造成 86% 海底電纜故障。Fastnet 計劃中採取的堅固裝甲設計正是對這些現實威脅的直接回應。

結尾與未來展望

Fastnet 計劃對全球數碼經濟具有深遠影響。 對 Amazon 而言,這象徵從基礎設施消費者向基礎設施擁有者的進化,進而掌握全球資料流動的控制權與定價權。對 AWS 客戶而言,獨有的低延遲通道將成為競爭優勢,尤其對金融交易、AI 應用與實時資料處理業務至關重要。然而,隨著 Meta、Google 與 Microsoft 相繼投入巨資,一個由少數科技巨頭主導的海底基礎設施時代正在成形,這對網絡中立性與數碼自主權帶來新的思考課題。未來 3 年內,Fastnet 與其競爭對手的海底電纜系統能否承載指數級增長的 AI 訓練與部署需求,將成為決定全球雲端競爭格局的關鍵。

資料來源: Amazon Web Services 官方新聞 CNBC – Amazon Building Fastnet Future Market Insights – 海底電纜市場報告 Recorded Future – 海底電纜安全研究 IPTP Networks – 超大規模服務商驅動海底電纜增長

read more
IT 基建資訊及通訊科技

華為攜手中電信創造光纖傳輸紀錄:空芯光纖技術突破無中繼傳輸極限


華為攜手中電信創造光纖傳輸紀錄:空芯光纖技術突破無中繼傳輸極限

中國電信聯合華為、長飛、廣東工業大學創造光纖傳輸距離世界紀錄,基於空芯光纖技術實現全球首個單波 1.2 Tbps 實時系統超過 436 公里的無中繼傳輸,相當於每秒傳輸完整 500 部高清電影。這一突破除了突破傳統光纖的物理極限,更為未來的高速長距通訊打開嶄新局面,標誌著光通訊技術已進入全新發展階段。

技術創新:從複雜組合到簡化方案

過往實現單波 800 Gbps 長距傳輸需要依靠兩台遙泵放大器才能支撐 404 公里距離,如果要突破這一限制,還需搭配遙泵與拉曼放大器組合,並借助非實時離線算法處理數據。而中國電信這次的突破在於採用最為常規的 EDFA 光放大器(摻餌光纖放大器),卻創造兩項世界紀錄:單波 800 Gbps 實時傳輸 611.9 公里,比之前紀錄多出 174.2 公里,相當於從北京直接傳到青島而無需任何中繼;全球首個單波 1.2 Tbps 實時系統超 200 公里無中繼傳輸。

技術突破關鍵在於空芯光纖應用。與傳統實芯光纖依靠玻璃材料導光不同,空芯光纖通過空氣而非玻璃傳輸光訊號,由多層微米級厚度的同心玻璃管構成,這些管壁如同微型反射鏡,將光不斷反射回中央空氣通道內。這種革新設計使得光在空氣中傳播,除了速度更快、延遲更低,還能有效減少非線性效應,進一步提升傳輸品質。在光學性能上,空芯光纖已全面超越實芯光纖:傳輸速度提升約 47%,傳輸時延降低約 31%。

全球技術對標:中國方案的領先優勢

在國際層面,空芯光纖技術正成為全球科技企業競爭焦點。Microsoft 支援的 Lumenisity 研究團隊於 9 月在頂級期刊《自然·光子學》發表成果,實現 1550 納米波長下 0.091 dB/km 的衰減水平,打破石英光纖 0.14 dB/km 的理論極限,這是過去 40 年波導技術領域最值得關注的進展。值得注意的是,中國電信此次採用的空芯光纖技術已驗證其在實時傳輸中的優越性能,除了實現超長距離傳輸,更重要是採用實時算法而非離線處理,這對於實際商用部署具有重要意義。

長飛光纖作為中國光通訊行業領軍企業,市場佔有率已連續九年全球第一。該公司在空芯光纖領域的進展同樣矚目,已建立全球首個 800G 空芯光纖傳輸技術試驗網,實現全球首個單波 1.2T、單向超 100T 空芯光纜傳輸系統的現網示範。中國移動和中國聯通也相繼展開空芯光纖試點工作,推動這一新技術從實驗室走向實際應用。

產業應用前景:算力時代的光速解決方案

空芯光纖技術應用場景正在快速擴展。根據中國銀河證券分析,空芯光纖在金融高頻交易、分布式智算中心等時延敏感場景,IDC 互聯、海底光纜等大容量長距離傳輸場景中應用廣闊。隨著人工智能和大數據時代對算力傳輸的需求爆炸式增長,這種能夠實現超長距、超高速、超低延遲傳輸的新型光纖已成為關鍵基礎設施。

中國電信研究院傳輸網絡研究中心總監霍曉莉評價,Microsoft 等企業的戰略舉措預示著光通訊技術的一次重大飛躍。領纖科技創始人、暨南大學教授汪瀅瑩則表示,從現網試點運行的情況看,規模商用在技術層面是可行的,關鍵取決於國內需求的時間節點。運營商真金白銀採購空芯光纖,代表著產業已從技術驗證階段邁入實際部署階段。

商用化挑戰:標準缺失與成本問題

雖然前景廣闊,空芯光纖要實現規模化應用仍面臨關鍵障礙。目前由於量產工藝升級和行業標準缺失,大批量、大長度生產仍難以實現。在應用環節,空芯光纖與實芯光纖的轉接也構成技術瓶頸。汪瀅瑩呼籲,空芯光纖作為極具創新性的產品,應擺脫無序價格競爭的「內卷」,重視知識產權,拼產品技術指標,推動中國空芯光纖產業健康發展。

國際方面,Microsoft 已於 2024 年 11 月宣布未來 24 個月內部署 15,000 公里空芯光纖計劃,目前已有約 1,200 公里的新型光纖投入現網運行。這標誌著全球主要科技企業都在加速推進這一技術的商業化過程。

中國網絡基礎設施的戰略升級

此次紀錄創造對中國建設新一代超寬帶光網絡具有深遠意義。中國電信已建成覆蓋全國的一二干融合骨幹全光交換網絡,覆蓋近 200 座城市,包括 500 個以上的 ROADM 節點和 2,000 個以上的光放大節點。空芯光纖技術突破將進一步推動骨幹傳輸網向著更高速率、更大容量、更長距離、更智能的方向演進。

在數據中心互聯方面,華為超高速光傳輸技術積累也功不可沒。華為光接入領域總裁馮志山在第 11 屆全球超寬帶高峰論壇上表示,將加速千兆、超千兆發展,激發光寬新增長。這反映出業界已達成共識:下一代光網絡將以空芯光纖等新型光纖為基礎,支援 AI 時代對算力的無限需求。

未來趨M:技術革命還是逐步演進?

業界普遍預期,空芯光纖將沿著「場景突破—技術迭代—成本下降—生態協同」的路徑,逐步實現規模化發展。短期內,商業前景將聚焦對低時延、大頻寬有剛性需求的特定應用場景,如全球互聯網樞紐間的超高速互聯、金融機構的實時交易鏈路等。中期來看,隨著生產工藝改進和成本下降,應用範圍將逐步擴展到骨幹網、城域網等更廣泛領域。

這次光纖傳輸距離的世界紀錄突破,正是中國光通訊產業從跟跑到領跑的生動縮影。華為、中國電信、長飛等企業的聯合攻關表明,中國在下一代光通訊技術上已具備全球競爭力。隨著空芯光纖技術的進一步成熟和商業化推進,它將成為支援數碼經濟發展、賦能 AI 時代的關鍵基礎設施。

 

資料來源:新浪財經新浪財經(空芯光纖商用分析)C114通信網通信世界

 

read more
IT 基建人工智能企業趨勢

美國財長貝森特明確表態:Nvidia Blackwell 落後三代才能賣中國


美國財長貝森特明確表態:Nvidia Blackwell 落後三代才能賣中國

Nvidia AI 晶片出口禁令全面升級,美國政府對 Nvidia 最先進 AI 晶片的出口管制再度加碼。美國財政部長 Scott Bessent 早前接受 CNBC 專訪時明確指出,只有當 Blackwell GPU 技術落後兩到三代、甚至四代時,中國才有可能獲得這些晶片,這標誌著美中科技競爭進入更嚴格管控階段。這項政策宣示除了重創 Nvidia 在中國市場的商業利益,更深刻影響全球 AI 產業供應鏈格局,迫使中國加速發展自主晶片技術以應對科技脫鉤的現實挑戰。

技術代差成出口門檻

Bessent 在訪談中將 Blackwell GPU 比喻為「皇冠上的明珠」,強調這項技術目前代表美國在人工智能領域的最高成就。他進一步解釋,12 至 18 個月前備受矚目的 H20 晶片當時也曾是頂尖產品,但 GPU 技術演進速度遠超過國際談判進程,因此未來可能會有新的協商機會,但時程仍充滿不確定性。值得注意的是,目前中國市場能取得的 H20 採用 Hopper 架構,僅比 Blackwell 落後一代,但在運算效能、記憶體容量和互連頻寬方面已遭大幅限縮。美國政府顯然認為一代的技術差距遠遠不足以維護其科技領先優勢,這反映出華盛頓對中國 AI 發展能力的深度憂慮。

Bessent 的發言呼應了川普總統先前的強硬立場。川普在 11 月 2 日接受 CBS《60 分鐘》節目專訪時斷然表示,美國不會允許中國或其他國家取得最先進的 Blackwell 晶片,這些技術必須保留給美國本土企業使用。白宮發言人 Karoline Leavitt 隨後在記者會上重申,美國目前無意將 Blackwell 晶片出售給中國。這些高層官員的連續表態形成政策鐵幕,徹底封殺了 Nvidia 行政總裁黃仁勳試圖向中國出售特供版 Blackwell 的商業計畫。全球最大晶片製造商與美國政府之間的利益拉鋸,突顯出國家安全考量已全面壓倒商業 lógica。

Nvidia 中國市場佔有率歸零

出口管制對 Nvidia 造成毀滅性衝擊。黃仁勳在 10 月中旬坦承,公司在中國的市場佔有率已從 2022 年的 95% 暴跌至零,形容這是一場「雲霄飛車式」的商業災難。他在 Citadel Securities 活動中直言:「我們的中國業務現在是 100% 出局,從 95% 的市場佔有率跌到 0%,我無法想像任何政策制定者會認為這是個好主意」。這項市場佔有率崩潰意味著 Nvidia 每年損失高達 170 億美元(約港幣 1,326 億元)的潛在營收,相當於其全球營收的 20% 至 25%。更嚴峻的是,中國政府在 11 月 5 日發布新指引,要求所有獲得國家資金的資料中心專案必須採用 50% 以上的國產晶片,事實上禁止了外國 AI 晶片在政府支援項目中的應用。

美國商務部長 Howard Lutnick 的「成癮論」更激化了雙方對立。他在 CNBC 訪談中表示,美國應該「賣給中國足夠的晶片讓他們對美國技術堆疊成癮」,但只能提供「第四好」的產品。這番言論引發中國科技企業強烈反彈,中國政府隨即指示國內企業停止採購 Nvidia H20 晶片。根據 Bernstein 研究報告預測,即使 H20 重新獲准在中國銷售,Nvidia 在中國 AI 晶片市場的佔有率也將從 2024 年的 66% 下降至 2025 年的 54%,並在 2027 年進一步萎縮,因為華為、寒武紀等本土廠商正快速搶佔市場。

中國加速自主研發突圍

面對技術封鎖,中國 AI 晶片產業展現驚人成長動能。寒武紀科技 (Cambricon Technologies) 在 2025 年上半年營收飆升 43 倍至 28.8 億人民幣(約港幣 31.1 億元),首次實現季度獲利,成為投資人追捧的「中國 Nvidia」。摩根大通預測,華為 2025 年將出貨 60 萬至 65 萬顆 AI 晶片,寒武紀則將供應 12.5 萬至 15 萬顆,兩家企業合計產量預計在 2026 年突破百萬顆。

中國政府的產業政策為本土晶片廠商提供強大支援。2025 年 3 月,中國宣布設立規模約 1,380 億美元(約港幣 10.76 兆元)、為期 20 年的創投引導基金,專注於 AI 和量子技術發展。工信部要求全國國有運算中心採購 50% 以上的國產晶片,為華為、寒武紀等企業創造龐大訂單。中國「去 A 計畫」(Delete America) 進一步要求電信營運商在 2027 年前淘汰外國半導體,政府機關和國企被要求優先採購國產 CPU,Intel 和 AMD 因此在中國市場遭遇重大挫折。

Intel 在中國的營收從 2019 年的 200.3 億美元(約港幣 1,562 億元)降至 2023 年的 148.5 億美元(約港幣 1,158 億元),AMD 則從 2022 年的 52.1 億美元(約港幣 406 億元)跌至 2023 年的 34.2 億美元(約港幣 267 億元)。AI 產業研究機構分析指出,中國 AI 晶片供應缺口預計在 2025 年將超過 100 億美元(約港幣 780 億元),國產替代已從政策目標轉變為市場必然。

全球 AI 產業版圖重塑

美中科技脫鉤正深刻改變全球半導體產業格局。根據市場研究機構預測,全球 AI 晶片市場規模將從 2025 年的 838 億美元(約港幣 6,536 億元)成長至 2032 年的 4,590 億美元(約港幣 3.58 兆元),年複合成長率達 27.5%。然而出口管制使這個高速成長的市場出現前所未見的分裂,中國與西方市場形成兩套平行的技術生態系統。美國智庫 AI Frontiers 研究報告指出,過去六年的出口管制雖成功延緩中國晶片製造能力成長,但未能阻止中國實驗室開發出高度競爭力的 AI 模型,雖然可能限制其大規模部署能力。

AMD 和 Intel 正試圖填補 Nvidia 在中國市場留下的真空。AMD 推出 MI325X 晶片宣稱在推論效能上達到市場領先水準,並計劃發布 MI350 系列與 Nvidia H200 競爭。然而 AMD 的軟件生態系統仍落後 Nvidia 的 CUDA 平台,需要大量配置才能運作。麥肯錫科技趨勢展望報告強調,AI 晶片競爭核心已從單純硬件效能轉向軟硬件整合能力,這解釋了為何 Nvidia 即使面臨技術追趕仍保持領先優勢。德勤半導體產業展望指出,2025 年晶片銷售將因生成式 AI 和資料中心擴建而飆升,但個人電腦和流動裝置市場需求可能持續低迷。

黃仁勳雖然面對商業挫折,仍對未來政策調整抱持希望。他在 11 月 1 日於南韓表示:「沒有做出任何決定,我們會看看結果如何。我希望某天能實現」。這位科技巨擘強調,限制與中國競爭並阻止美國企業招募中國頂尖人才會造成「生存危機」,因為沒有人需要原子彈,但所有人都需要 AI。

資料來源: Reuters Bloomberg CNBC South China Morning Post AI Frontiers

 

read more
IT 基建人工智能資訊及通訊科技

Google 啟動「陽光捕手計劃」:2027年發射AI衛星數據中心 繞過地球能源限制


Google 啟動「陽光捕手計劃」:2027年發射AI衛星數據中心 繞過地球能源限制

Google 正式宣布「陽光捕手計劃」(Project Suncatcher),計劃將其張量處理單元(TPU)AI 晶片搭載至衛星並發射到太空,構建全球首個大規模太空數據中心星座網絡。這項革命性計劃期望能利用太陽能為人工智能運算提供幾乎無限的潔淨能源,同時繞過地球上日益嚴峻的能源限制。Google 行政總裁 Sundar Pichai 表示,太陽發出的能量是全球總電力生產的 100 兆倍,在合適的軌道上,太陽能板的發電效率可達地面的 8 倍,且能近乎全天候發電。該計劃將與衛星公司 Planet Labs 合作,預計在 2027 年初發射兩顆原型衛星進行軌道測試,為未來 10 年的太空 AI 基礎設施建設奠定基礎。

太空競賽白熱化:科技巨頭爭奪軌道運算主導權

太空數據中心已成為全球科技巨頭的新戰場。就在 Google 宣布「陽光捕手計劃」前兩天,2025 年 11 月 2 日,NVIDIA 的 H100 GPU 首次被 Starcloud 公司發射至太空軌道。這顆名為「Starcloud-1」的衛星重僅 60 公斤,卻搭載了迄今進入太空最強大的處理器——NVIDIA H100 GPU,其 AI 運算能力高達 2,000 teraflops,是國際太空站現有 T4 GPU 性能的 1,000 倍。Starcloud 行政總裁 Philip Johnston 大膽預測:「10 年內,幾乎所有新建數據中心都將位於外太空」。

中國在這場競賽中同樣動作迅速。2025 年 5 月 14 日,中國浙江實驗室與國星宇航合作發射了 12 顆 AI 衛星,構成「三體計算星座」的首批部署。每顆衛星提供 744 TOPS 的運算能力,透過 100 Gbps 雷射衛星間鏈路連接,並能運行 80 億參數的 AI 模型。這個星座計劃最終將擴展至 2,800 顆衛星,創建太空超級計算機網絡。國際能源署數據顯示,全球數據中心目前消耗約 415 兆瓦時的電力,約佔全球總電力消耗的 1.5%,而美國數據中心的電力使用量預計到 2030 年將達到全國電力的 9%。

技術突破與挑戰:輻射防護與散熱成關鍵

Google 已針對太空環境的極端條件展開深入測試。Travis Beals——Google「智能範式」部門高級總監、陽光捕手計劃負責人表示,團隊利用粒子加速器對新一代 Trillium TPU 進行了輻射耐受測試,結果顯示這些晶片能夠承受相當於 5 年任務壽命的總電離輻射劑量而不會出現永久性損壞。這項突破至關重要,因為太空輻射是地球軌道電子裝置面臨的最大可靠性威脅,遠超汽車等地面應用場景。

然而散熱問題仍是技術瓶頸。由於太空是真空環境,傳統的對流冷卻風扇完全失效,只能依靠熱輻射散熱。Siemens 數碼工業軟件航太防務副總裁 Todd Tuthill 指出:「太空中的冷卻必須透過熱交換器輻射完成,這就是為什麼太空梭在軌道上會打開艙門——那些艙門充當熱交換器的輻射屏蔽」。雖然真空環境被 NVIDIA 描述為「無限熱阱」,但被動輻射散熱的效率遠低於地面的主動冷卻系統。

通訊頻寬是另一重大挑戰。Google 的研究論文指出,太空數據中心需要衛星鏈路支援每秒數十太比特的傳輸速率,這要求衛星星座保持緊密隊形並採用自由空間光學鏈路連接。但衛星間距離太近會增加碰撞風險,需要精密的軌道動力學控制。新加坡南洋理工大學研究團隊在《自然電子學》期刊發表的數碼雙胞胎模擬研究證實,軌道數據中心在原理上可行,但必須解決發電、散熱和連接性的系統性挑戰。

經濟效益分析:2035 年或達成本平衡

發射成本是太空數據中心商業化的關鍵門檻。Google 的成本分析預測,到 2030 年代中期,在太空發射和運行數據中心的能源總成本(含發射費用)可能與地球上同等規模的數據中心大致相當。業界估算顯示,太空太陽能數據中心的能源成本可能比地面低 10 倍,且運行成本可降低 20 倍。

這種經濟前景的改善主要源於 3 個因素:首先,SpaceX 等商業航太公司大幅降低了發射成本;其次,太空中持續的太陽能供應消除了昂貴的電網基礎設施和能源採購成本;第三,無需耗水冷卻系統,大型地面數據中心每天需消耗 500 萬加侖的水用於冷卻。麥肯錫顧問公司報告預測,全球 AI 數據中心容量需求將從 2023 年的 60 GW 以 19-22% 的年複合增長率增長至 2030 年的 171-219 GW,樂觀情景下甚至可能達到 298 GW。

然而 Semafor 分析指出,太空數據中心要實現真正的成本競爭力,還需要克服微重力對電子裝置的長期影響、軌道維護成本、以及衛星生命週期結束後的太空垃圾處理等問題。目前地面 AI 數據中心的機架功率需求已從傳統的 7-10 千瓦飆升至 30-100 千瓦,平均達 60 千瓦以上。

合作夥伴與時間表:Planet Labs 的關鍵角色

Planet Labs 是這項計劃的戰略合作夥伴,該公司運營著全球最大的地球觀測衛星星座,包括超過 150 顆 Dove 衛星和高解像度 SkySat 衛星。Dove 衛星僅有鞋盒大小,提供 3-5 米解像度的每日地球影像,而 SkySat 則能達到 50 釐米解像度,每天可重訪同一地點多達 10 次。Planet 正在部署的新一代 Pelican 星座衛星將實現 30 釐米解像度,並大幅降低數據延遲。

這些衛星技術經驗將為 Google 的 TPU 衛星提供關鍵支援。根據官方時間表,2027 年初發射的兩顆原型衛星每顆將搭載 4 個 TPU 單元。這次「學習任務」將驗證硬件在軌運行的實際狀況、測試分散式機器學習工作負載在衛星星座間的執行效能,以及驗證 Google 的軌道設計、控制和通訊系統。Travis Beals 強調:「我們的初步分析顯示,太空機器學習運算的核心概念不會被基礎物理或無法克服的經濟障礙所阻礙」。

產業影響:重塑全球 AI 基礎設施格局

陽光捕手計劃代表著 Google 繼自動駕駛和量子計算之後的又一登月計劃。15 年前 Google 投資自動駕駛技術時,這項技術還被視為遙不可及的夢想,如今已轉化為 Waymo 並在全球提供數百萬次乘車服務。同樣,10 年前 Google 開始建造大規模量子計算機時,也被認為是不切實際的工程目標。

這項計劃將對全球 AI 產業產生深遠影響。亞馬遜創辦人 Jeff Bezos 預測,AI 數據中心將在 20 年內轉移至太空運營。研究機構 Epoch AI 的數據顯示,若當前 AI 訓練規模趨勢持續,2 年內最大規模的 AI 訓練運行可能需要約 250 萬個 H100 等效單元,而 Meta 的 Hyperion 和 Microsoft 的 Fairwater 數據中心完工後將擁有 500 萬個 H100 等效單元的運算能力。TechCrunch 報導指出,美國消費者已對數據中心推高電價表示擔憂,數據中心目前佔美國發電量的 4%,較 2018 年增長一倍以上,到 2028 年這一比例還將繼續攀升。

太空數據中心若能成功實現,將徹底改變這一困境。新加坡南洋理工大學研究負責人 Wen Yonggang 表示:「太空為運算提供了真正永續的環境,透過利用太陽能和太空的冷真空,軌道數據中心可以轉變全球運算格局」。Singularity Hub 的分析認為,雖然技術挑戰巨大,但這項計劃若成功,將使 AI 運算實現碳中和,同時不對地球資源造成負擔。隨著 Google、NVIDIA、中國等多方力量的投入,太空正在成為 AI 時代的新前沿陣地。

資料來源: Google Official Blog Google Research Data Center Dynamics Singularity Hub Tom’s Hardware

 

read more
IT 基建企業趨勢微電子業

日本半導體三巨頭斥巨資擴產:2nm 工藝時代已來


日本半導體三巨頭斥巨資擴產:2nm 工藝時代已來

日本半導體三大巨頭正在全球範圍掀起一場激烈產能競速——這是對下一代晶片工藝爭奪的戰略預判。東京應化工業(Tokyo Ohka Kogyo, TOK)、JSR 公司和 Adeka 等日本光刻膠製造商近期宣布的數十億日元投資計劃,標誌全球半導體材料供應鏈正在經歷一次深度重塑。這些投資除了針對韓國的三星和 SK 海力士等晶片製造商,更是為 2025 年至 2030 年間即將爆發的先進工藝需求做充足準備。

日本材料巨頭的全球戰略性佈局

日本在光刻膠領域擁有壓倒性技術壟斷地位。根據市場數據,日本企業佔據全球光刻膠市場 91% 以上的市場佔有率,其中東京應化工業單獨掌握全球市場 25.1%,而在高階 EUV 光刻膠領域更是控制 45.9% 市場佔有率。東京應化工業在韓國投資 200 億日元(約港幣 10 億元)建設光刻膠工廠,預計 2030 年投產,同時再追加投資 120 億日元(約港幣 6 億元)建設高純度化學廠。這一雙軌投資策略的本質,是將供應鏈前移至距離主要客戶最近的地理位置——三星、SK 海力士等全球頂級晶片製造商的大本營。

根據美國銀行集團 (UBS) 的研究,日本光刻膠企業預計將至少保持技術優勢至 2030 年,這意味未來五年內,掌握光刻膠供應的企業將掌握全球半導體產業的咽喉。

JSR 公司採取更激進的時間表——其位於韓國的 MOR 型光刻膠工廠計劃在明年底就實現量產,比東京應化工業提前兩至三年。而位居百年老店的 Adeka 公司則採取「本土優先」策略,在日本投資 32 億日元(約港幣 1.6 億元)建設 MOR 型光刻膠工廠,目標是在 2028 年 4 月實現量產。

韓國成為產業樞紐的必然性

韓國之所以成為日本材料巨頭擴產的首選地,背後存在多重深層原因。韓國政府於 2024 年宣布一項宏大半導體集群計劃,預計在 2047 年前投資 471 億美元(約港幣 3,673.8 億元),其中京畿道的平澤-龍仁(Pyeongtaek-Yongin)區域將成為全球最大晶片製造中心,目標月產能達到 770 萬片晶圓。這一區域已經匯聚三星電子、SK 海力士等全球頂級晶片企業,而它們對光刻膠等材料的需求量正爆炸式增長。

SK 海力士預計 2025 年資本支出將增長 75%,用作應對人工智能晶片對高頻寬記憶體(HBM)的瘋狂需求——HBM 的 2024 年需求量增長 200%,預計 2025 年還將增長 70%。這種需求端的激增直接轉化為對高階光刻膠的迫切需求。同時從地緣政治角度看,日本材料企業在韓國建廠也有助規避可能的貿易摩擦風險,通过本地化生產降低供應鏈脆弱性。

根據美國國際貿易委員會的數據,韓國半導體產業的全球競爭力正持續上升。三星晶圓代工業務對 2nm 工藝的投資已經啟動,而 SK 海力士在 DRAM 1b 和 1c 等先進工藝上的產能擴張計劃已經獲得確認。這些企業迫切需要本地化材料供應夥伴,以應對全球光刻膠供應可能面臨的瓶頸。日本企業在韓國投資,不僅是建造一座工廠,更是建立長期戰略紐帶,確保當 2nm 晶片大規模產業化時,不會因為材料短缺而成為產能瓶頸。

MOR 型光刻膠技術的戰略價值

MOR(金屬氧化物光刻膠)已經成為 EUV 極紫外線光刻工藝的核心選擇,這是本輪日本企業集中擴產的技術邏輯。相比傳統的化學增強抗蝕體(CAR)材料,MOR 具有三大優勢:首先,材料成本比乾式光刻膠低約 33%,這在成本敏感的晶片製造中具有顯著吸引力;其次,MOR 在解像度、線邊粗糙度(LER)和圖案坍塌等關鍵指標上表現更優,尤其是在超小特徵尺寸下;第三,MOR 的材料浪費量可降低 5 至 10 倍,符合現代晶片廠對環保製造的要求。東京電子公司的投資者日報顯示,MOR 預計將在 10 埃(1nm)工藝節點用作邏輯晶片,在 1xnm 工藝節點用作 DRAM。

產業鏈上的關鍵參與者已經開始驗證 MOR 的商用可行性。SK 海力士已經確認在 1xnm DRAM 工藝中採用 MOR 方案,三星也在進行相關測試。根據市場研究機構 Valuates Reports 的最新報告,全球 EUV 光刻膠市場 2024 年規模為 2.96 億美元(約港幣 2.3 億元),預計到 2031 年將達到 14.09 億美元(約港幣 109.9 億元)。這意味在未來七年內,EUV 光刻膠市場規模將增長近 5 倍。

全球半導體產業鏈的中長期預期

日本企業這波擴產投資,本質上反映全球晶片產業對未來五至十年的一致判斷:2nm 及以下工藝將從研發階段進入規模化生產階段。美國能源部的數據顯示,全球半導體市場預計到 2030 年將達到 1 兆美元(約港幣 7.8 兆元)規模,這意味對先進工藝晶片的需求將超過歷史任何時期。日本企業雖然在本土缺乏 2nm 工藝的晶片製造廠,但他們通過積極佈局海外,對 2nm 及以下的先進工藝同樣「志在必得」。國家層面的支援也在強化這一趨勢——日本經濟產業省(METI)正為本地材料供應商在精細化學品研發上提供支援,而美國政府對日本材料企業在歐洲擴張的戰略支援,也進一步強化這些企業的全球競爭力。

與此同時,中國等新興參與者雖然在光刻膠研發和生產上取得進展,但仍難以撼動日本企業的市場地位。中國企業目前主要在 i 線和 KrF 光刻膠領域取得突破,距離高階 EUV 光刻膠的商業化仍有較大技術與成本差距。這意味日本企業至少在 2030 年之前,仍將維持其在 EUV 光刻膠的壟斷地位。這種技術優勢的可持續性,進一步激發日本企業的擴產決心。

對產業生態的深遠影響

日本光刻膠企業的巨額投資,必然對全球半導體產業鏈的分佈格局產生深遠影響。首先這將強化韓國作為全球晶片製造中心的地位。當高階材料實現本地化供應後,三星和 SK 海力士的 2nm 工藝競爭力將大幅提升,成本結構也將進一步改善。其次這將加劇日本對全球半導體材料價值鏈的控制——在後摩爾定律時代,晶片性能提升的關鍵已經從工藝工程轉向材料創新,日本企業通過壟斷關鍵材料供應,實際上掌握全球晶片產業的升級密鑰。

從供應鏈彈性角度看,日本企業在多地佈局生產基地,有助降低全球晶片產業對單一國家材料供應的依賴風險。但同時這也強化日本在全球半導體產業中的話語權——無論晶片製造在哪裡發生,日本的材料和化學品企業都能從中獲利。這種「隱形冠軍」的戰略地位,比擁有晶片製造產能更加穩定和持久。

結論與前景

日本光刻膠巨頭的擴產浪潮,標誌半導體產業正進入一個新競爭階段。不再是純粹工藝競爭和製造規模競爭,而是上游材料供應鏈的爭奪戰。這些投資對行業的啟示是清晰的:在後摩爾定律時代,掌握關鍵材料的企業,將比掌握製造工藝的企業獲得更大戰略優勢。對於中國及其他新興晶片產業參與者而言,這更是一個警示——如不在材料領域實現突破,再先進的工藝目標都可能受制於上游。

資料來源:日經亞洲 (Nikkei Asia) | Valuates Reports | JSR Corporation Official | USD Analytics | 瑞銀集團 (UBS)

read more
IT 基建人工智能企業趨勢

AI 競賽白熱化:從 OpenAI 與 AWS 結盟 看未來 10 年基礎設施佈局關鍵


AI 競賽白熱化:從 OpenAI 與 AWS 結盟 看未來 10 年基礎設施佈局關鍵

OpenAI 於 2025 年 11 月 2 日宣布與 Amazon AWS 達成一項為期 7 年、價值高達 380 億美元(約港幣 2,964 億元)雲端運算協議,正式終結與 Microsoft 長達 5 年的獨家合作關係。這標誌著人工智能產業史上最大規模運算資源採購案之一,Amazon 股價應聲上漲 5%,突顯市場對這筆交易的高度期待。此協議除了重塑 OpenAI 多雲端策略,也反映出 AI 巨頭為搶奪運算資源展開激烈競爭,以及對未來 AI 發展所需基礎設施的龐大需求。本文將深入分析此協議的三大關鍵影響:OpenAI 如何透過多元化供應鏈應對算力瓶頸、AWS 在雲端 AI 競賽中的戰略突圍,以及整個產業面臨的財務可持續性挑戰。

算力荒驅動戰略轉向

OpenAI 執行長 Sam Altman 在協議宣布時明確指出:「擴展前沿 AI 需要大規模、可靠的運算資源」。這句話背後是 OpenAI 面臨的嚴峻現實——雖然公司已開發出性能更強模型,但因基礎設施不足而無法推出市場。根據 AWS 提供資訊,所有運算容量預計在 2026 年底前全部部署完成,OpenAI 將可立即使用位於美國各地 AWS 資料中心內數十萬顆 NVIDIA GPU,包括最新 GB200 和 GB300 晶片。AWS 計算與機器學習服務副總裁 Dave Brown 接受訪問時強調,這是專為 OpenAI 建立「全新運算容量」,而非從現有資源中調撥。這項協議讓 OpenAI 能夠訓練新一代 AI 模型,同時處理 ChatGPT 服務每日數億次推論請求,並利用 Amazon 自研 Graviton CPU 來驅動「代理式 AI」應用,讓 AI 系統能自主完成更複雜任務。

值得注意是 OpenAI 在 2025 年 10 月才剛與 Microsoft 重新調整合作協議,正式結束自 2019 年以來的獨家雲端合作關係。此前 Microsoft 已對 OpenAI 投資總額達 130 億美元(約港幣 1,014 億元),並提供價值 2,500 億美元(約港幣 1.95 萬億元)AI 算力採購協議。然而單一供應商模式已無法滿足 OpenAI 擴張需求。除了 AWS OpenAI 還與 Oracle 簽署為期 5 年、價值 3,000 億美元(約港幣 2.34 萬億元)資料中心協議,預計從 2027 年開始提供 4.5 吉瓦運算容量。加上與 Google Cloud 合作 (金額未公開),OpenAI 雲端承諾總額已接近 6,000 億美元(約港幣 4.68 萬億元)。Altman 在今年 7 月曾透露,公司計畫在 2025 年底前部署「遠超過 100 萬顆 GPU」,但隨即補充團隊現在必須找出方法將這數字擴大 100 倍。

AWS 的反擊:從 Anthropic 失守到 OpenAI 突圍

對 Amazon 而言這筆交易具有重大戰略防禦意義。雖然 AWS 仍是全球最大雲端供應商,2025 年第二季營收達 309 億美元(約港幣 2,410.2 億元),市場佔有率維持在 30%,但其增長速度已明顯落後競爭對手——AWS 同比增長僅 17.5%,而 Microsoft Azure 和 Google Cloud 分別達到 39% 和 32%。更令 Amazon 擔憂是其重金押注的 AI 合作夥伴 Anthropic 在 2025 年 10 月突然宣布與 Google 達成一項數百億美元合作協議,將採用多達 100 萬顆 Google TPU。這筆交易價值預估達 350 億美元(約港幣 2,730 億元),涉及超過 1 吉瓦運算容量,將於 2026 年在網上推出。

Anthropic 財務長 Krishna Rao 表示,此次與 Google 合作擴張將幫助公司持續獲得定義 AI 前沿所需運算資源。對 AWS 來說這無異於警訊——Amazon 除了已對 Anthropic 投資 80 億美元(約港幣 624 億元),更在印第安納州為其啟用了價值 110 億美元(約港幣 858 億元)資料中心園區。Anthropic 同時也是 Amazon 自研 AI 晶片 Trainium 最大客戶,雙方關係原本被視為 AWS 在 AI 競賽中的核心籌碼。市場分析師因此猜測,Anthropic 可能計劃將部分工作負載從 AWS 轉移至 Google Cloud,這對 AWS 雲端業務構成潛在威脅。

在此背景下,成功拿下 OpenAI 這筆 380 億美元訂單,被業界視為 AWS 確保其雲端業務能在 AI 浪潮中持續受益「關鍵第一步」。AWS 執行長 Matt Garman 在聲明中強調:「AWS 在 AI 基礎設施方面兼具規模與成熟度,這項協議證明了為何 AWS 能獨特支援 OpenAI 高要求的 AI 工作負 workload」。此交易也有助於 AWS 展示其在大規模 AI 叢集運營方面實力——AWS 聲稱擁有運行超過 50 萬顆晶片規模叢集豐富經驗。對於投資人關切 AWS 資本開支回報問題,這筆訂單提供具體營收增長動能,有助於證明其積極擴建資料中心策略正在奏效。

燒錢競賽背後的財務可持續性危機

然而整個 AI 產業正面臨一個關鍵問題:這場運算資源軍備競賽在財務上是否可持續?OpenAI 財務數據揭示令人擔憂現實。根據提交給股東的財務披露,OpenAI 在 2025 年上半年創造約 43 億美元(約港幣 335.4 億元)營收,較 2024 年全年增長 16%。公司預計 2025 年全年營收將達 130 億美元(約港幣 1,014 億元)規模。但與此同時,OpenAI 上半年虧損達 25 億美元(約港幣 195 億元),主要源於 AI 研發成本及 ChatGPT 營運開支。更有分析指出,OpenAI 營運虧損可能高達 78 億美元(約港幣 608.4 億元)。根據 Microsoft 近期財報透露數據,OpenAI 上一季淨虧損可能高達 115 億美元(約港幣 897 億元)。這意味著即使 OpenAI 在 2025 年實現 130 億美元營收目標,整體財務狀況仍將維持深度虧損。

分析師 J. Gold Associates 創辦人 Jack Gold 在評論 OpenAI 與 Oracle 的 3,000 億美元協議時表示:「毫無疑問 AI 營收在未來幾年將大幅增長,AI 應用也必須託管在某處。假設市場和創投/資助者不崩潰,他們似乎願意幾乎給 OpenAI 開空白支票」。但這種樂觀情緒正面臨考驗。據路透社報導,Microsoft、Google、Amazon 和 Meta 四大科技巨頭預計在 2025 年將在 AI 基礎設施上投入超過 4,000 億美元(約港幣 3.12 萬億元)。這一數字超過了 2020 年全球半導體產業總投資規模。然而麻省理工學院斯隆管理學院研究警告,目前僅有 5% AI 專案能創造實質價值。

市場分析師開始將當前 AI 投資熱潮與歷史上的鐵路泡沫和網絡泡沫相提並論,質疑長期經濟可持續性。OpenAI 面臨挑戰是多方面的:訓練成本持續飆升,未來模型訓練成本預計將達數十億美元;產品市場契合度尚未在足以證明當前成本規模上得到驗證;OpenAI 在 AI 開發上領先優勢正在縮小,其他團隊使用類似架構開發出性能相當模型。此外 AI 模型運作和訓練所需能源消耗巨大,對可擴展性和環境影響產生擔憂,而對 NVIDIA GPU 等特殊硬件高度依賴,也使 AI 專案面臨供應鏈中斷和價格波動風險。

多雲策略成為產業新常態

OpenAI 與 AWS 合作標誌著 AI 產業正式進入「多雲時代」。這種策略轉變並非 OpenAI 獨有——Anthropic 同樣採取多雲架構,其 Claude 系列語言模型跨 Google TPU、Amazon Trainium 晶片和 NVIDIA GPU 運行,每個平台專門處理訓練、推論和研究等特定任務。這種分散風險做法讓 AI 公司能避免單一供應商鎖定,在談判中獲得更大籌碼,並根據不同工作負載選擇最佳化硬件配置。對雲端供應商而言,AI 客戶龐大需求正重塑競爭格局——不再是誰的市場佔有率最大,而是誰能提供最大規模、最可靠 AI 專用基礎設施。

能源供應和晶片可用性正成為 AI 發展關鍵瓶頸。Altman 曾表示,即使 OpenAI 擁有更強大模型,但因缺乏足夠運算容量而無法提供服務。AWS、Microsoft 和 Google 都面臨需求超過供應情況——AWS 目前擁有 1,950 億美元(約港幣 1.52 萬億元)積壓訂單,代表客戶已承諾在未來幾年內支付這筆金額,但公司無法以客戶期望速度交付所有需求。這種供需失衡驅使 OpenAI 積極與多家供應商簽約,總計承諾支出近 1.4 兆美元(約港幣 10.92 兆元),涵蓋資料中心專案、半導體供應協議等。Altman 預測 OpenAI 未來將投入數兆美元建設資料中心,規模可與全球能源網絡相媲美。

決定 AI 未來的基礎設施競賽

這場運算資源爭奪戰最終結果,將決定哪些企業能在 AI 時代佔據主導地位。對 OpenAI 而言,多元化雲端供應鏈策略除了是技術需求,更是生存必需——公司必須確保在算力供應上不受單一廠商制約,才能維持技術領先優勢並支撐其指數級增長營收目標。對 AWS、Microsoft 和 Google 等雲端巨頭來說,能否贏得頂尖 AI 公司的青睞,將直接影響其在未來 10 年市場地位和盈利能力。然而整個產業面臨根本問題依然存在:當前大規模投資能否轉化為可持續商業模式和實質生產力提升?答案可能要等到 2026 年底這些承諾運算容量陸續在網上推出、新一代 AI 應用開始規模化啟用後,才能逐漸明朗。在此之前,這場 AI 基礎設施軍備競賽只會愈演愈烈,持續考驗著參與者資本實力和戰略定力。

 

資料來源: Business Insider CNBC Amazon News New York Times CNBC Tech

read more