close

IT 基建

IT 基建人工智能企業趨勢

字節跳動斥資千億人民幣擴建 AI 帝國:雙軌策略應對晶片供應挑戰


字節跳動斥資千億人民幣擴建 AI 帝國:雙軌策略應對晶片供應挑戰

字節跳動計劃於 2026 年投入約 1,000 億人民幣(約港幣 1,080 億元)購買 Nvidia AI 晶片,較 2025 年的 850 億人民幣大幅增長 18%,標誌著這家估值達 5,000 億美元(約港幣 3.9 兆元)的獨角獸企業正全力衝刺人工智能基礎建設。這項破紀錄投資源於旗下抖音、TikTok、雲端平台火山引擎及大型語言模型豆包的運算需求爆炸性增長,其中豆包聊天機械人 12 月單日處理 Token 量已突破 50 兆個,較 2024 年 12 月的 4 兆個激增超過 12 倍。這筆預算尚待美國批准 Nvidia H200 晶片對華銷售,而字節跳動同步投入約 400 億人民幣(約港幣 432 億元)採購 Huawei 昇騰晶片,形成「外購 + 自研 + 國產化」三位一體供應鏈戰略。

AI 運算需求引爆晶片軍備競賽

字節跳動運算需求增長速度遠超業界預期。火山引擎總裁譚待透露,平台目前服務超過 100 家企業客戶,累計處理超過 1 兆 Token,並於 2025 年上半年以 49.2% 市佔率領跑中國雲端市場 Token 處理量。豆包使用量於 2025 年 9 月達到日均 30 兆 Token,較同年 3 月的 12.7 兆 Token 翻倍增長,更是 2024 年 5 月基準的 253 倍。這種指數級增長迫使字節跳動必須建立約 1,000 人規模的內部晶片設計部門,不能單靠外部晶片供應。

該部門已進入處理器試產階段,開發出效能媲美 Nvidia 專為中國市場設計的 H20 晶片、但成本更低的自研處理器。業界分析指出,H20 晶片雖然運算效能僅為 H100 的 15%,但在企業 AI 最常見的大型語言模型推理場景中,憑藉 96GB 記憶體容量(較 H100 多 16GB)及 4.0 TB/s 頻寬優勢,實際效能反而優於 H100,且成本降低 50%。Huawei 昇騰 910B 總處理效能達 5,120,超越 H20 的 2,368,寒武紀思元 590 則以 4,493 表現同樣領先。

地緣政治重塑全球晶片供應鏈

特朗普政府於 2025 年 12 月批准 Nvidia H200 晶片對華出口,但附加 25% 政府抽佣條件,費率較 8 月提議的 15% 進一步提高。H200 為 Nvidia 第二強大 AI 晶片,效能約為 H20 的 6 倍,但中國企業仍需等待北京當局最終批准採購。美國智庫「Institute for Progress」報告指出,Huawei 最先進的昇騰 910C 在運算能力和記憶體頻寬上仍顯著落後於 H200,不過特朗普政府評估 Huawei 於 2026 年可能生產數百萬顆昇騰 910C 加速器,較 2025 年 6 月預估的 20 萬顆大幅躍升。

這項出口政策背後邏輯是維持中國企業對美國技術依賴,同時為 Nvidia 等美企研發注資,但 25% 抽佣被批評削弱競爭力。路透社報道,Nvidia 期望在 2 月中農曆新年前向中國交付首批 H200,並已向台積電探詢增產需求,2026 年訂單量超過 200 萬顆晶片,當中大部分來自中國網絡巨頭。中國政府目前正敦促科技企業減少對 Nvidia 依賴,轉向 Huawei、寒武紀、摩爾線程等國產晶片供應商。

雙軌投資策略鎖定 2026 產能高峰

字節跳動的 1,000 億人民幣 Nvidia 晶片預算僅是其 2026 年 AI 總投資一部分。《金融時報》報道,該公司整體 AI 投資將攀升至 1,600 億人民幣(約港幣 1,728 億元)。同時字節跳動已向 Huawei 訂購價值 400 億人民幣(約港幣 432 億元)的昇騰晶片,首批數百億元訂單預計 2026 年初交付。這項國產晶片採購從 2025 年近零激增,主因是 Nvidia 於 2025 年 4 月暫停 H20 供貨,突顯運算能力缺口。

Huawei 規劃分階段交付:2026 年第一季先供應約 5,000 顆昇騰 910 處理器,第二至三季擴大至昇騰 910+ 及 910 Pro 約 1.2 萬顆,2027 年起全面整合至所有 AI 工作負載。寒武紀同樣積極擴產,目標在 2026 年交付約 50 萬顆 AI 加速器(含 30 萬顆思元 590/690),較 2025 年產量增長逾 3 倍,而字節跳動已是寒武紀最大客戶。研調機構 TrendForce 預測,中國高階 AI 晶片市場 2026 年將增長超過 60%,國產晶片市佔率有望達約 50%,Nvidia H200 及 AMD MI325 等進口產品約佔 30%。

晶片部門戰略轉移應對敏感技術挑戰

因應中美地緣政治緊張,字節跳動已於 2025 年 9 月將晶片部門轉移至在新加坡註冊的子公司 Picoheart,並與前沿 AI 研究團隊 Seed 密切合作。有員工透露,部分中國內地員工已被詢問是否願意遷至新加坡,可能涉及處理在國內較敏感技術工作。字節跳動同時投資高頻寬記憶體(HBM)等記憶體技術,採取內部研發與投資初創公司並行策略。

然而國產晶片供應鏈仍面臨瓶頸。寒武紀依賴中芯國際(SMIC)的 7 納米製程,但良率挑戰可能威脅 2026 年交付目標。HBM3 及 HBM3E 記憶體由南韓供應商主導,即使 Huawei 昇騰 910C 仍需使用 SK Hynix 及 Samsung 的 HBM 堆疊,中國尚未生產出具競爭力國產替代品。美國國會議員 Elizabeth Warren 及 Gregory Meeks 已要求商務部在 48 小時內披露 Nvidia H200 出口許可狀態,並期望在核發前舉行簡報評估軍事潛力。

雲端與 AI 應用雙引擎驅動企業轉型

火山引擎作為字節跳動最年輕雲端服務品牌,已從 2021 年 11 月推薦演算法商業化,擴展至完整企業級 AI 模型服務平台火山方舟(Volcano Ark)。該平台整合智譜 AI、MiniMax 等第三方大模型,提供模型微調、評估及推理服務,並以字節跳動自有 DPU 及升級版機器學習平台支援大模型訓練。火山引擎將獨家支援中央電視台 2026 年春節聯歡晚會 AI 功能,該節目是中國收視率最高年度盛事。

豆包聊天機械人憑藉優異中文語言處理、深度整合本地網絡服務、文化適應性及快速回應時間,已成為中國領先本土聊天機械人,展現本地化 AI 解決方案在區域市場競爭優勢。分析師估計,2025 年全球多語言內容與溝通市場規模達 600 至 700 億美元(約港幣 4,680 至 5,460 億元),而字節跳動正透過豆包及火山引擎搶佔企業 AI 應用市場。字節跳動於 2021 年將火山引擎註冊資本從 1,000 萬人民幣增資至 10 億人民幣(約港幣 10.8 億元),並重組為六大核心業務單元之一,顯示對雲端業務長期承諾。

字節跳動的三軌並進策略——大規模採購 Nvidia 先進晶片、投資 Huawei 等國產替代方案、自主研發晶片——反映出中國科技巨頭在美國出口管制與國產化政策夾擊下的現實選擇。隨著 2026 年 H200 供貨及昇騰晶片交付進度明朗化,字節跳動能否維持 AI 運算優勢,將取決於北京監管決策、台積電產能分配及國產晶片良率突破等多重變數。

 

資料來源:

South China Morning Post

Reuters

TrendForce

CNBC

TechNode

read more
IT 基建人工智能企業趨勢

台積電 1650 億美元海外擴張:N-2 規則確保本土技術領先兩個世代


台積電 1650 億美元海外擴張:N-2 規則確保本土技術領先兩個世代

台積電在美國政治壓力下加速海外擴張,承諾在亞利桑那州投資 1,650 億美元(約港幣 1.29 兆元),但台灣主管部門首度公開確認採用「N-2」技術管制規則,確保海外廠製程必須落後台灣本土兩個世代才能轉移。這項政策意味當台積電在台量產 1.4nm 製程時,美國廠才能生產 2nm 晶片,中間間隔 1.6nm 製程,確保台灣始終保持技術領先地位。隨著全球半導體供應鏈重組,這場技術與地緣政治的角力將如何影響全球科技產業生態,備受各界關注。

美國施壓下的產能大遷移

台積電原本無意在美國大規模投資,但近年在華府持續施壓下不斷加碼承諾。從最初 650 億美元(約港幣 5,070 億元)擴增至 1,650 億美元(約港幣 1.29 兆元),美國政府最新暗示投資規模需達 2,000 億美元(約港幣 1.56 兆元)以上。亞利桑那州 Fab 21 廠區計劃分三期建設:第一期已於 2024 年底落成,原定生產 5nm 晶片但已升級至 4nm 製程,預計 2025 年上半年開始量產;第二期工廠目標 2028 年生產 3nm 晶片;第三期則計劃在 2030 年前導入 2nm 及 A16 製程技術。根據日經報導,台積電正加速推進第二廠建設,預計 2026 年夏季開始安裝晶片製造設備。這項被譽為「美國史上最大外國直接投資」的計劃,獲得美國晶片法案 66 億美元(約港幣 514.8 億元)聯邦補助,目的是重建美國本土半導體供應鏈。

兩代技術差的「矽盾」戰略

台灣經濟部近期首度公開說明台積電海外技術轉移的「N-2 規則」:海外生產節點必須落後台灣本土兩個世代。台灣經濟部長郭智輝明確指出,台積電最先進 1.4nm 和 2nm 技術將保留在台灣本土,海外廠只能使用較舊節點。這套機制運作邏輯清晰:當台積電目前最先進量產製程為 2nm(N2)時,海外只能生產 5nm 級別(N5),中間間隔 3nm 製程;未來當台積電量產 1.4nm(A14)後,2nm 才會轉移到美國,中間保留 1.6nm(A16)作為技術緩衝。根據台積電在 2024 年 IEEE 國際電子元件會議透露,1.4nm 製程研發已全面展開,預計 2028 年下半年於台中科學園區量產,屆時將成為全球最先進製程之一。

產業專家的多元視角

MIT Technology Review 分析指出,台灣「矽盾」策略正面臨前所未有壓力,台積電必須在維持技術優勢與滿足美國安全需求之間取得平衡。外交關係協會(CFR)資深研究員 Chris McGuire 直言,半導體技術保護政策存在嚴重漏洞,關鍵技術轉移必須更謹慎審查。市場研究機構 Counterpoint 合夥人 Neil Shah 則從商業角度分析,指出台積電亞利桑那廠面臨三大挑戰:建廠成本是台灣數倍、美國缺乏成熟半導體製造人才庫、產能利用率和良率需達標才能維持獲利。摩根士丹利(大摩)證券最新報告更樂觀,將台積電目標價從 1,688 元上調至 1,888 元,看好晶圓代工漲價與 AI 半導體需求強勁,預估 2024 至 2029 年台積電整體營收年複合成長率將達 20% 至 25%。

全球晶圓代工版圖重劃

台積電目前控制全球約 65% 晶圓代工市場,在 3nm 先進製程更佔據 90% 市場佔有率,主要客戶包括 Nvidia、AMD、Apple、Qualcomm 和 Broadcom。然而競爭對手正積極追趕:Intel 行政總裁 Pat Gelsinger 曾宣示要在 2025 年奪回製程領導權,目前正開發 14A 製程並評估引入 GAA 技術;Samsung 則運用 Gate-All-Around 架構技術爭奪市場佔有率。台積電於 2025 年下半年量產的 2nm 製程將導入 GAA 半導體架構,這是自 FinFET 以來最大技術轉變,2026 年下半年推出的 A16 製程效能與能效將再提升 15% 至 20%。值得注意的是,1.4nm 晶圓成本預估高達 45,000 美元(約港幣 35.1 萬元),較 2nm 節點上漲 50%,只有頂級客戶才會考慮下單。台積電預估全球半導體市場將在 2030 年達到 1 兆美元(約港幣 7.8 兆元)規模,其中 AI/HPC 佔 45%、智能電話佔 25%、車用佔 15%。

企業決策者的關鍵啟示

N-2 技術管制規則為台灣科技產業築起雙重防線:既滿足美國盟友要求建立本土產能,又確保台灣保持至少兩代技術領先優勢。對全球科技供應鏈而言,這意味未來 5 至 7 年內最先進 AI 晶片仍將主要由台灣生產,企業在規劃產品藍圖時需將地緣政治風險納入考量。隨著台積電 2025 年 CoWoS 先進封裝產能持續擴充,AI 運算晶片供應緊張有望在 2026 年緩解。台積電海外擴張策略究竟是分散風險的明智佈局,還是被迫稀釋核心競爭力的妥協,這場技術與資本全球賽局仍在持續演進。

 

資料來源: 聯合新聞網 科技新報 Yahoo Finance Taiwan News MIT Technology Review

read more
IT 基建人工智能企業趨勢應用方案

超音速技術「落地」變現:Boom 以航空引擎搶攻數據中心電力市場

美國超音速飛機製造商 Boom Supersonic 宣布,獲得價值超過 12.5 億美元(約港幣 97.5 億元)的 Superpower 燃氣輪機訂單,同時完成 3 億美元(約港幣 23.4 億元)融資,標誌航空技術首次大規模進軍 AI 數據中心發電領域。這家原本專注於 1.7 倍音速客機研發的公司,將其 Symphony 噴射引擎核心技術改造為 42 兆瓦天然氣發電機組,為能源短缺的 AI 基礎設施提供即時解決方案。

航空引擎的地面進化論

Boom 的 Superpower 發電系統與其 Symphony 超音速引擎共用約 80% 零件,但關鍵差異在於放棄產生推力的渦扇結構,改為增設壓氣機級數,並在後端加裝自由動力渦輪以驅動發電裝置。這項改造充分利用超音速引擎設計的核心優勢:Symphony 引擎原本設計於 18,000 米高空、有效溫度達 71°C(160°F)的極端熱環境下持續運作,遠高於傳統亞音速引擎在 -46°C 高空環境的工作條件 。

這種耐熱特性轉化為地面發電的競爭優勢十分明顯。傳統航改燃氣輪機在環境溫度達 43°C(110°F)時會損失 20-30% 輸出功率,但 Superpower 能維持全額 42 兆瓦輸出且無需水冷系統。整套機組封裝在標準貨櫃尺寸內,基礎設施完成後現場安裝僅需兩週,這種模組化設計讓數據中心能快速擴充電力容量。系統採用天然氣為主要燃料,緊急狀況下可切換至柴油,並配備雲端監控系統即時傳輸性能數據 。

AI 運算引爆的電力軍備競賽

全球數據中心正面臨史無前例的電力缺口。Goldman Sachs 研究預測,到 2030 年全球數據中心用電需求將較 2023 年激增 165%,其中 AI 運算佔比將從目前 14% 攀升至 27%。Deloitte 的保守估計也指出,到 2030 年全球數據中心年耗電量將達 1,065 太瓦時(TWh),相當於日本全國用電量 。

BloombergNEF 最新預測顯示,美國數據中心電力需求將從 2024 年的 25 吉瓦(GW)飆升至 2035 年的 106 吉瓦,相當於需要新增 81 吉瓦發電容量。美國能源部估計,到 2028 年數據中心可能佔美國尖峰用電 12%,到 2035 年這比例將攀升至 8.6%,超越電動車成為最大的新興用電來源。這種爆炸性增長迫使科技巨頭重啟退役核電廠(如 Microsoft 與 Three Mile Island 的合作)或投資小型模組化反應爐(SMR),但核能建設需時甚久,天然氣輪機成為填補電力缺口的務實選擇 。

Crusoe 能源共同創辦人兼行政總裁 Chase Lochmiller 表示:「Boom 在動力渦輪技術上的創新方法,建立在其超音速飛行領域令人印象深刻的突破之上」。這家丹佛 AI 基礎設施開發商已訂購 29 台 Superpower 機組,總裝機容量達 1.21 吉瓦,將用於支援其整合熱管理、現場發電與高效能運算的新一代天然氣數據中心 。

技術變現的雙軌戰略與市場卡位

Boom 的商業模式創新在於將長期技術研發轉化為短期現金流。此次由 Darsana Capital Partners 領投的 3 億美元(約港幣 23.4 億元)融資,參與方包括 Altimeter Capital、ARK Invest、Bessemer Venture Partners、Robinhood Ventures 和 Y Combinator。公司目標是到 2030 年將 Superpower 年產能提升至 4 吉瓦以上,每套機組售價約每千瓦 1,033 美元(約港幣 8,057 元)(含渦輪機本體、發電機、控制系統和預防性保養),但不包含併網設備、排放控制裝置和場地建設 。

這策略讓 Boom 直接挑戰傳統航改燃氣輪機巨頭。GE Vernova 已向 Crusoe 交付 29 台 LM2500XPRESS 航改燃氣輪機(單機約 35 兆瓦),Siemens Energy、Solar Turbines 和 Mitsubishi Power 也積極搶佔這市場。不過 Boom 強調其產品的差異化優勢:在 43°C 以上高溫環境保持滿載輸出、完全無需水資源、以及從超音速試飛機 XB-1 繼承的遙測與雲端運維能力 。

創辦人兼行政總裁 Blake Scholl——這位 Carnegie Mellon University 電腦科學系校友曾在 24 歲時於 Amazon 負責年營收達 3 億美元(約港幣 23.4 億元)的項目,後來共同創辦被 Groupon 收購的 Kima Labs——表示:「超音速技術除了能加速飛行,也將成為人工智能時代的加速器。」他指出,Superpower 與 Symphony 共用零件的策略能壓縮供應鏈成本並分攤研發投資,預計發電業務的現金流將「顯著增強」Overture 超音速客機項目的資金安全性 。

從天空到地面的風險對沖

Boom 的技術「落地」策略本質上是一場高風險的資金平衡術。超音速民航歷來因成本高昂、環保爭議和 Concorde 失敗陰影而融資困難,Overture 客機項目至今仍在等待 Symphony 引擎的全面測試和適航認證。透過將相同的引擎核心技術應用於地面發電,公司既能提前驗證引擎可靠性數據(每台 Superpower 渦輪機都將回傳性能數據),又能創造即時收入支撐研發開支 。

然而這種雙軌戰略也面臨執行風險。航空業觀察家指出,Boom 需要同時掌握兩個截然不同的市場:一邊是受到嚴格監管、要求極致安全的民航業;另一邊是競爭激烈、價格敏感的能源基礎設施市場。Superpower 訂單總額 12.5 億美元(約港幣 97.5 億元)雖然可觀,但分攤到 2030 年的產能爬坡期,能否完全覆蓋 Overture 項目所需的數十億美元開發成本仍是未知數 。

科技產業的能源轉型新選擇

Boom 的案例揭示一個更廣泛趨勢:先進製造技術正跨界解決能源基礎設施瓶頸。除了航改燃氣輪機,Oracle 與 OpenAI 在 Texas 的 Stargate 項目也結合天然氣輪機與燃料電池,預計到 2026 年提供超過 1 吉瓦電力。這種「現場發電」(on-site generation)模式讓科技公司擺脫電網限制,但也引致對天然氣依賴度上升與碳排放目標衝突的質疑 。

對企業決策者而言,Boom 的策略提供三點啟示:技術資產的多元化變現能緩解單一市場的資金壓力;高溫高壓極端環境的工程能力具有跨領域應用價值;AI 基礎設施建設正在重構能源、製造與科技產業的邊界。隨著 2030 年代超音速民航與 AI 運算雙雙進入商業化高峰,這場「上天入地」的技術競賽才剛剛開始。

資料來源:
Yahoo Finance
Goldman Sachs Research
BloombergNEF
Boom Supersonic
GE Vernova

read more
IT 基建人工智能企業趨勢

IBM 斥資 110 億美元收購 Confluent 科技巨頭建立企業 AI 數據中樞關鍵一役


IBM 斥資 110 億美元收購 Confluent  科技巨頭建立企業 AI 數據中樞關鍵一役

IBM 於 2025 年 12 月 8 日正式宣布以 110 億美元(約港幣 858 億元)收購數據串流平台領導者 Confluent,這是該公司在行政總裁 Arvind Krishna 領導下推動混合雲與 AI 戰略的又一重大舉措。根據協議,IBM 將以每股 31 美元(約港幣 241.8 元)現金收購 Confluent 全部流通股份,此交易已獲兩家公司董事會批准,預計將用現有現金完成。這項交易除了是 IBM 近年來最大規模收購之一,更標誌著科技巨頭在生成式 AI 時代爭奪數據基建控制權的競爭白熱化。

數據串流平台成 AI 時代必爭之地

Confluent 建立在 Apache Kafka 開源平台之上,這個由其行政總裁 Jay Kreps 在 LinkedIn 任職期間共同創造的技術,已成為全球數據串流處理的標準。目前全球超過 150,000 家組織使用 Apache Kafka 實現即時數據處理,包括超過 80% 的《財富》100 強企業。Confluent 平台能夠連接、處理和治理即時數據串流,從銀行交易到網站點擊紀錄,為企業提供所謂的「中樞神經系統」以管理跨組織的即時數據流動。

IBM 將透過此收購獲得 Confluent 完整產品組合,包括數據串流服務、連接器、串流治理、串流處理和 Streaming Agents 等核心技術。分析師指出,在企業競相開發生成式 AI 推動下,市場對數據基建公司的需求激增。外界視 IBM 此舉為直接回應市場對其雲端軟件業務增長放緩的擔憂,該公司 2025 年 10 月發布的季度財報曾令投資者態度審慎。

Krishna 收購戰略:從 HashiCorp 到 Confluent 連貫布局

這是 Arvind Krishna 擔任行政總裁以來實施一系列戰略收購中的最新一筆。2024 年 IBM 以 64 億美元(約港幣 499.2 億元)收購 HashiCorp,該交易於 2025 年 2 月完成,期望能擴大其混合雲服務能力。HashiCorp 收購案預計每年為 IBM 帶來 8 億美元(約港幣 62.4 億元)營收貢獻,進一步鞏固其在基建軟件領域地位。

Krishna 的戰略核心圍繞三大支柱展開:雲原生整合、AI 驅動的效率提升和 SaaS 級別的可擴展性。根據 IBM 2025 年第三季度財報,該公司生成式 AI 業務賬面價值已達 95 億美元(約港幣 741 億元),其中生成式 AI 諮詢服務單季就達到 15 億美元(約港幣 117 億元)。Melius Research 最近將 IBM 目標股價上調至 350 美元(約港幣 2,730 元),預計到 2027 年其 EV/FCF 倍數將達到 23 倍,認為 IBM 的混合雲和 AI 優勢將帶來基建軟件業務雙位數增長。

與 Salesforce 收購 Informatica 交易對比與啟示

IBM 收購 Confluent 交易規模,超過今年 5 月 Salesforce 以約 80 億美元(約港幣 624 億元)收購 Informatica 的案例。Salesforce 收購 Informatica 主要是為增強其 Agentforce 平台的數據攝取、品質管理和元數據豐富能力。然而業界分析指出,Salesforce 收購策略更傾向將 Informatica 技術深度整合到自家生態系統,而非作為獨立平台繼續發展。

相比之下,IBM 強調 Confluent 將協助其建立「端到端智能數據平台」,服務企業生成式 AI 和 AI 代理部署需求。這種定位反映兩家公司不同的戰略取向:Salesforce 聚焦於 CRM 和銷售自動化的垂直整合,IBM 則致力成為「中立企業級技術整合商」,為 85% 的《財富》500 強企業提供混合雲解決方案。

數據串流市場未來圖景與企業影響

數據串流技術正成為 AI 時代關鍵基建。2025 年數據串流報告顯示,93% IT 領導者認為採用「左移」方法至少能帶來四項潛在好處,86% IT 領導者強調數據串流投資的穩定增長與大量新採用者湧入同步進行。行業專家預測,能夠以即時數據串流形式分享數據的企業將在 AI 浪潮中獲益最多,實時數據的貨幣化價值將呈現爆炸性增長。

對企業而言,這項收購意味 IBM 將提供更完整混合雲至 AI 解決方案。Confluent 平台支援 Confluent Cloud(全託管部署)和 Confluent Platform(自行管理部署)兩種靈活部署選項,這與 IBM 強調的混合雲戰略高度契合。然而交易仍需獲得 Confluent 股東批准、監管機構審批及其他慣例成交條件。隨著 IBM、Salesforce 等科技巨頭加速布局數據基建領域,企業選擇數據平台時將面臨更多整合性解決方案,但也需謹慎評估供應商鎖定風險。

資料來源:
IBM Official Newsroom | Reuters | Bloomberg | Apache Kafka Business Analysis | AI Invest Market Analysis

read more
IT 基建人工智能業界消息

Nvidia 黃仁勳盛讚華為「史上最強」 AI 競爭重塑全球格局


Nvidia 黃仁勳盛讚華為「史上最強」 AI 競爭重塑全球格局

Nvidia 行政總裁黃仁勳於華盛頓戰略與國際研究中心(CSIS)公開表示,華為是「歷史上最強大的科技公司之一,值得每個人尊敬」。這已是這位 AI 晶片霸主多次公開讚賞其最強競爭對手。在美中科技競爭白熱化當下,黃仁勳的表態突顯一個深刻現實:美國對華晶片出口管制,正催生一個強大且獨立的替代供應鏈。

來自對手的背書與市場變局

黃仁勳在 CSIS 活動中警告,美國限制 Nvidia 晶片對華出口「實質上已拱手讓出全球第二大人工智能市場」,這將為華為等中國企業提供技術成熟空間,最終使其具備全球競爭實力。他早前訪問北京時就表示,華為極具創新力,「從公司規模、人員規模和技術能力來看,他們既廣又深」,在自動駕駛和 AI 技術領域都非常出色。

數據揭示驚人變遷。Nvidia 在中國市場佔有率從 95% 降至接近 0%。然而 2024 年中國市場 Nvidia H20 系列晶片出貨量約 60 萬至 80 萬枚,實際市場佔有率仍超 60%。同時亦顯示華為正快速崛起,其昇騰 910D 處理器期望能挑戰 Nvidia H100,首批樣品預計 2025 年 5 月推出。更重要是昇騰 910C 良品率已達約 40%,與 Nvidia H100 相當,直接影響晶片成本和供應能力。

華為的全棧技術與全球擴張

華為在自動駕駛領域展現驚人實力。其 MDC 智能駕駛計算平台基於自研昇騰晶片,能實現 L4 級別自動駕駛。截至 2024 年 10 月,華為 ADS 智駕總里程超 7.36 億公里,城區智駕里程突破 1 億公里,模型迭代週期保持在 5 天以內。

黃仁勳特別讚揚華為的全棧能力:「他們在晶片設計、系統工程、網絡技術等領域都表現出色,還擁有自主雲端服務」。他警告正如「一帶一路」倡議協助華為出口 5G 技術,現在又出現 AI 領域的「一帶一路」。黃仁勳分析佈局越早,越能搶先搭建生態系統,讓相關國家形成路徑依賴。

競爭哲學與企業啟示

當被問及是否將華為當作對手時,黃仁勳回答:「他們是我們的競爭對手,但仍然可以欽佩和尊重競爭對手,對手不是敵人」。他強調:「世界很大,我希望未來我們能繼續競爭很多年,但我對他們的感情是欽佩、尊重,並且充滿競爭意識。」

Nvidia 2024 年文件中首度將華為認定為「最大競爭對手」。有消息指出百度已轉向華為下單,表明中國公司已開始擺脫對美國技術依賴。黃仁勳預計中國市場有 500 億美元(約港幣 3,900 億元)商機,若有強競爭力產品可滿足市場,預計有 50% 年增長。

對全球企業而言這場競爭揭示關鍵趨勢:封鎖最大後果是創造出一個強大且獨立的替代市場與供應鏈。技術自主重要性日益突顯,全棧技術能力將成為未來競爭核心優勢。分析師預測美國可能繼續擴大出口管制,而中國將持續推動技術自主,加大對半導體產業投資。在技術民族主義日益抬頭的今天,全球科技產業如何在競爭與合作之間找平衡,是企業戰略問題,更是關乎全球創新生態未來走向的關鍵議題。

資料來源: Bloomberg 新浪財經 OFweek人工智能網 Microchip USA CSIS

 

read more
IT 基建人工智能企業趨勢

雲端巨頭罕見攜手:Amazon 與 Google 如何改變企業多雲策略格局


雲端巨頭罕見攜手:Amazon 與 Google 如何改變企業多雲策略格局

Amazon 與 Google 最近宣布推出聯合開發的多雲互聯服務,讓企業客戶能在數分鐘內建立兩大雲端平台之間的私有高速連接。這項服務整合了 AWS Interconnect-multicloud 與 Google Cloud 的 Cross-Cloud Interconnect,徹底改變過往需要數週甚至數月的手動配置流程。企業軟件巨頭 Salesforce 已成為首批採用者,顯示這項合作對企業級應用的策略價值。

技術創新背後:從週級部署到分鐘級啟動的商業價值

傳統的跨雲連接需要企業手動設置硬件組件、配置 BGP 會話、分配自治系統編號,並建立複雜的路由策略以滿足效能和可靠性要求。這個過程通常需要協調內部和外部多個團隊,耗時數週到數月。新的聯合解決方案完全抽象化了這些複雜性,客戶現在可以通過任一雲端控制台(Console)或 API 按需配置專用頻寬,在分鐘內建立連接。

這項服務採用四重冗餘架構,跨越獨立的互聯設施和路由器,並由兩家供應商持續監控以主動檢測和解決問題。平台邊緣路由器之間的流量使用 MACsec 加密技術保護。AWS 網絡服務副總裁 Robert Kennedy 表示:「這項合作使客戶能夠以簡化的全球連接性和增強的營運效率,在雲端之間移動數據和應用程式。」

Salesforce 軟件工程高級副總裁 Jim Ostrognai 指出:「AWS Interconnect-multicloud 讓我們能夠像部署內部 AWS 資源一樣輕鬆地建立與 Google Cloud 的關鍵橋樑,利用預建的容量池和我們團隊已經熟悉和喜愛的工具。」這種原生的流程化體驗加速了客戶將 AI 和分析建立在可信數據之上的能力,無論數據存放在何處。

市場需求驅動:多雲策略成為企業風險管理新常態

2025 年第四季度的數據顯示,88% 的雲端買家正在部署或營運混合雲,79% 已經使用多個雲端供應商。這種趨勢反映了企業對營運韌性和避免供應商鎖定的迫切需求。多雲策略讓組織能夠根據特定需求從不同供應商選擇最佳服務,並通過在多個平台分散工作負載來增強營運韌性,降低特定供應商問題導致的停機風險。

此次合作時機特別關鍵,距離 2025 年 10 月 20 日 AWS US-EAST-1 區域重大故障僅一個多月。該故障導致全球超過 3,500 家公司受到影響,Downdetector 記錄了超過 1,700 萬份用戶報告,較日常基準增加 970%。分析公司 Parametrix 估計,此次故障給美國企業帶來 5 億至 6.5 億美元(約港幣 39 億至 50.7 億元)的損失。這次事件突顯了單一雲端供應商的系統性風險,促使更多企業重新評估其雲端架構策略。

CIO Dive 的分析師 Dan Sustar 指出,Salesforce 對這項倡議的支持也通過將 Google Cloud「作為對抗 Microsoft Azure 在 AI 原生雲端主導地位競賽中的競爭堡壘」來加強 AWS。這種策略聯盟反映了雲端市場競爭格局的微妙變化。

產業競合新局:從零和博弈到生態系統共榮

2024 年第四季度全球雲端基礎設施服務市場規模達到 900 億美元(約港幣 7,020 億元),年增 22%。AWS 以 30% 的市場佔有率保持領先地位,Microsoft Azure 佔 21%,Google Cloud 佔 12%。三大巨頭合計控制約 68% 的全球雲端市場。雖然市場佔有率存在差距,Google Cloud 在 2024 年第四季度實現 30% 的年增長率,達到 120 億美元(約港幣 936 億元)的季度營收,年化營收達到創紀錄的 480 億美元(約港幣 3,744 億元)。

IDC 全球企業基礎設施追蹤總監 Juan Pablo Seminara 表示:「雲端基礎設施支出增長在第四季度再次超出市場預期。從簡單聊天機械人演進到推理模型再到代理式 AI,將需要多個數量級的運算能力,特別是用於推理。」IDC 預測,2025 年雲端基礎設施支出將比 2024 年增長 33.3%,達到 2,715 億美元(約港幣 2 兆 1,177 億元)。長期來看,IDC 預測 2024 至 2029 年雲端基礎設施支出的複合年增長率為 17.8%,到 2029 年將達到 4,619 億美元(約港幣 3 兆 6,028 億元),佔運算和儲存基礎設施總支出的 83%。

AWS 宣布這項多雲網絡產品目前處於預覽階段,並計劃在 2026 年納入 Microsoft Azure。這個開放規範的網絡互操作性標準最初由 AWS 提出,期望能讓任何供應商都能採用,現在與 Google Cloud 合作率先推向市場。這種從競爭到合作的轉變,標誌著雲端產業正從「零和博弈」轉向「生態系統共榮」的新階段。

企業策略啟示:AI 時代的基礎設施投資新邏輯

這項合作對企業的最重要啟示是:多雲架構不再是技術問題,而是業務連續性和風險管理的策略選擇。採用多雲策略的企業在災難復原指標上表現優於單一雲端部署 30%,並能在停機或價格波動期間即時轉移工作負載。

隨著人工智能應用加深,企業越來越認識到,在財務、市場營銷和人力資源等各個組織職能中深度整合 AI 需要現代化整個基礎設施架構。根據 S&P Global Market Intelligence 451 Research 的研究,雲端基礎設施和網絡保安是 2024 年第四季度最高的支出優先事項,其次是 AI 技術。2024 年生成式 AI 資金達到超過 560 億美元(約港幣 4,368 億元),幾乎是 2023 年的兩倍,投資者專注於精選贏家和基礎設施增長。

企業領導者現在面臨的問題不再是「是否採用多雲」,而是「如何最有效地實施多雲策略」。這項 AWS 與 Google Cloud 的聯合解決方案提供了一個範本:通過標準化的互操作性規範和自動化的配置流程,企業可以在不犧牲效能或保安性的前提下,實現真正的雲端靈活性。未來隨著 Microsoft Azure 的加入,企業將擁有更完整的多雲生態系統選擇權,這將進一步推動數碼轉型的深度和廣度。

資料來源: Google Cloud AWS CIO Dive IDC CRN

 

read more
IT 基建人工智能企業趨勢業界消息

Intel 前 CEO 預言:量子運算兩年內顛覆 GPU 霸權 AI 泡沫臨近


Intel 前 CEO 預言:量子運算兩年內顛覆 GPU 霸權 AI 泡沫臨近

Intel 前行政總裁 Pat Gelsinger 近日接受《Financial Times》專訪時拋出震撼預言:量子運算最快兩年內將成為主流技術,GPU 晶片時代將比市場預期更早結束,當前 AI 產業的投資熱潮可能面臨重大轉折點。這番言論與 Nvidia 行政總裁黃仁勳「量子運算至少還需 20 年」的論調形成強烈對比,在半導體產業引起激烈辯論。

Pat Gelsinger 目前擔任創投公司 Playground Global 合夥人,該公司於 2025 年 9 月領投量子演算法公司 Phasecraft 3,400 萬美元(約港幣 2.65 億元)B 輪融資,顯示其對量子技術的重點投資。這場關於運算未來的論戰,除了涉及技術路線之爭,更牽動全球數千億美元的 AI 基礎建設投資佈局。

運算典範三位一體:為何兩年時間表震驚業界

Pat Gelsinger 將傳統 CPU 運算、AI 加速運算(GPU)與量子運算並列為「運算領域的三大支柱」(Holy Trinity of Computation)。他指出,量子位元(qubits)技術的穩定性改善、錯誤校正能力提升以及商業化時程加速,都超出主流預期。Pat Gelsinger 強調:「兩年時間就足夠」,一旦量子位元技術投入應用,傳統 CPU 架構將面臨挑戰,GPU 與 AI 加速器的角色將被重新定義,整個運算堆疊將經歷典範轉移。他認為 GPU 價格飈升正助長 AI 市場的投機行為,當量子運算展現真正能力時,產業將迎來重大轉折點,現有架構將被重新評估。

然而這一時間表遭到業界質疑。Nvidia 行政總裁黃仁勳在 2025 年初 CES 大會上明確表示,實用量子電腦可能需要 15 至 30 年,20 年是較合理的估計。黃仁勳指出量子位元的脆弱性、高錯誤率以及擴展困難等技術障礙。行業分析師 Ivana Delevska 也認為「15 至 20 年時間表非常現實」。這場觀點對立背後,反映量子運算發展路徑的根本分歧:是等待完美硬件,還是在現有含雜訊中型量子(NISQ)裝置基礎上加速應用。

市場規模暴增五倍:量子運算商業化提速證據

數據顯示 Pat Gelsinger 的樂觀並非空穴來風。全球量子運算市場在 2025 年已達 18 億至 35 億美元(約港幣 140 億至 273 億元)規模,預計 2029 年將成長至 53 億美元(約港幣 413 億元),年複合成長率達 32.7%。更積極的預測顯示,市場規模可能在 2030 年達到 202 億美元(約港幣 1,575 億元),年複合成長率高達 41.8%,成為本十年成長最快的科技領域之一。投資信心的提升源於技術突破加速:中國光量子晶片廠商聲稱其產品在 AI 工作負載上的處理速度是 Nvidia GPU 的 1,000 倍,且已部署於航天和金融產業。

產業發展出現六大關鍵趨勢:邏輯量子位元實驗增加、針對特定問題類別開發專用硬件與軟件、中等規模雜訊量子裝置的網絡化連接、軟件抽象層的擴展、人才培育工具的普及,以及透過新材料和製程持續改善物理量子位元效能。Phasecraft 等公司已與 Google Quantum AI、IBM、Quantinuum 等硬件領導者合作,並為 Johnson Matthey、Oxford PV、英國國家能源系統營運商等終端用家提供解決方案,證明量子應用正從實驗室走向產業現場。

GPU 霸權真會終結?互補共存才是主流預測

雖然 Pat Gelsinger 預言 GPU 將在本世紀末前被量子技術取代,多數專家認為量子處理器(QPU)不會完全取代 GPU,而是在特定應用場景形成互補。量子運算擅長「小數據、大運算」問題,如真隨機數生成和密碼學,但無法解決所有問題。產業共識指向「量子增強」(quantum-enhanced)模式:將量子運算作為傳統運算的夥伴,克服其限制,讓現有 NISQ 裝置能處理以往無法觸及的問題,而非等待完美硬件才開始應用。

Pat Gelsinger 在 Playground Global 的投資經驗強化了他的信念。該創投公司 2025 年 9 月參與 Phasecraft 融資案,合夥人 Peter Barrett 表示:「隨著 Phasecraft 的量子演算法進展,我們正從發現走向設計,進入化學、材料科學和醫學前所未有的活力時代」。Phasecraft 的演算法已讓材料模擬效率提升數百萬倍,並應用於藥物開發和能源網絡最佳化。這種「軟硬體融合」策略,正在縮短量子優勢實現的時間表。預計 2030 年的數據中心將同時配備量子、AI 和通用運算能力,形成混合運算生態系統。

Intel 18A 製程爭議:技術賭注如何影響判斷

Pat Gelsinger 對量子運算的積極態度,或許與他在 Intel 遭遇的挫折有關。他在專訪中坦言,接手 Intel 時發現公司「衰敗程度比想像更深、更嚴重」,在他回任前五年「沒有任何產品準時交付」,基本工程紀律嚴重流失。18A 製程技術是 Intel 追趕 TSMC 的關鍵戰略節點,Pat Gelsinger 承諾五年內完成,但在產品交付前就被解僱。新任行政總裁陳立武(Lip-Bu Tan)上任後快速啟動成本削減,並在 2025 年 6 月開始暗示 18A 製程對新客戶吸引力下降。

18A 製程採用創新的 RibbonFET 全環繞閘極電晶體和 PowerVia 背面供電技術,原定 2025 年下半年進入量產。然而陳立武透露,雖然 18A 在 2025 年第三季取得可用良率,可開始生產 Panther Lake 處理器,但良率提升速度緩慢,商業化成效仍不理想。Intel 預計 18A 良率要到 2027 年才能達到業界標準水準。有外媒報導指出,陳立武已指示公司準備多項方案供董事會討論,包括停止向新客戶推廣 18A 的可能性,這將是他上任以來最重大的戰略轉向。Pat Gelsinger 透露陳立武最終在五年期限前終止該專案,但 Intel 官方聲明顯示 18A 仍將作為至少三代消費和伺服器產品的基礎。

Microsoft 與 OpenAI 關係解密:誰才是真正主導者

Pat Gelsinger 將 Microsoft 與 OpenAI 的合作模式類比為 Bill Gates 早年與 IBM 的夥伴關係。他認為 OpenAI 更像是 Microsoft 的「分銷合作夥伴」,核心算力與主導權實際掌握在 Microsoft 手中,OpenAI 主要負責將產品推向用戶。這評論揭示 AI 產業權力結構的本質:基礎設施提供者才是真正的控制者。Microsoft 自 2019 年起對 OpenAI 進行多年期、數十億美元的投資,並持續增加對專用超級電腦系統的投入,加速 OpenAI 的獨立 AI 研究。

兩家公司計劃在 2025 年推出的「星際之門」(Stargate)超級電腦專案,預計整合 OpenAI 即將發布的 GPT-5 模型。OpenAI 的複雜模型已無縫整合進 Microsoft 的 Copilot 助理陣列,顯著提升生產力並簡化複雜工作流程。這種深度綁定關係印證 Pat Gelsinger 的觀點:在 AI 時代,擁有運算資源和基礎設施的企業,比演算法開發者擁有更大的議價能力。當量子運算技術成熟時,這權力格局可能再次洗牌,掌握量子硬件與雲端服務的科技巨頭將佔據更有利位置。

對企業的戰略啟示:如何在運算典範轉移中佈局

Pat Gelsinger 的預言對企業決策者提出嚴峻挑戰:是否應該延緩 GPU 基礎建設的大規模投資,等待量子技術成熟?產業現實顯示,短期內 GPU 仍將主導 AI 工作負載,但企業應開始關注量子運算的早期應用場景,特別是材料模擬、藥物發現、加密技術和複雜系統改良等領域。混合運算架構將成為過渡期的主流選擇,企業需要培養同時理解傳統、AI 和量子運算的跨領域人才。

Intel 在矽基自旋量子位元、低溫 CMOS 整合和混合古典-量子系統方面的進展,顯示傳統半導體廠商正努力在量子時代保持競爭力。Pat Gelsinger 的「兩年論」究竟是基於深刻洞察還是過度樂觀,時間將給出答案。

 

資料來源:
cnBeta
Kad8
The Quantum Insider
SpinQuanta
Business Wire

 

read more
IT 基建人工智能企業趨勢業界消息

阿里通義千問獲 NeurIPS 最佳論文獎 首個中國團隊奪此殊榮


阿里通義千問獲 NeurIPS 最佳論文獎 首個中國團隊奪此殊榮

阿里通義千問(Qwen)團隊於 NeurIPS 大會上,從全球逾 20,000 篇投稿中脫穎而出並獲最佳論文獎,是本屆唯一獲此殊榮中國團隊。研究針對「注意力門控機制」,揭示提升大模型訓練效率關鍵路徑,標誌中國 AI 基礎研究能力晉身全球第一梯隊。在 AI 競爭日趨激烈下,成果對全球大模型產業發展具里程碑意義。

突破 AI 訓練瓶頸技術創新

通義千問團隊研究聚焦 Transformer 架構核心組件注意力機制,首次系統性解密「注意力門控機制」如何影響模型效能與訓練穩定性。團隊透過在 1.7B 稠密模型與 15B 混合專家模型(MoE)進行數十組大規模實驗,單組訓練數據量最高達 3.5 兆 tokens,證實門控機制能作模型「智能閥門」,有效過濾冗餘資訊並提升模型表現。

論文揭示兩大關鍵發現改寫業界對注意力機制理解。首先在 Softmax 注意力低秩映射引入非線性變換;其次利用查詢相關稀疏門控分數調節注意力輸出。此機制除緩解「啟動爆炸」和「注意力沉降」問題,亦顯著改善長文本處理外推效能。NeurIPS 評審委員會指出,方法將被廣泛採用,大幅推動社群對大語言模型注意力機制理解。

從學術突破到產業應用閉環

研究成果並非停留理論層面,已成功應用於 Qwen3-Next 模型系列,顯著提升模型效能與穩健性。Qwen3-Next 採用創新混合注意力架構,實現 80B 參數僅需啟動 3B 算力即媲美 235B 密集模型效能,訓練成本較傳統密集模型降逾 90%。效率革命令長文本推理處理量提升 10 倍,單卡即可在 24GB 視像記憶體運作 80B 模型,徹底改變大模型部署經濟邏輯。

目前阿里通義千問已開源逾 300 款模型,覆蓋全模態及全尺寸,全球累計下載量突破 7 億次,衍生模型數量逾 18 萬個。《財富》雜誌 2025 年「改變世界」榜單特別肯定 Alibaba 開源策略,認為透過免費或低成本提供 AI 模型,正支援初創企業、研究人員與技術愛好者探索前沿技術,並促使 OpenAI、xAI 等美國同行紛紛發布開源模型。

頂級 AI 會議認可背後競爭格局

NeurIPS 作為人工智能領域最具影響力學術會議,曾孕育 Transformer、AlexNet 等改變行業里程碑成果。本屆會議接收 5,524 篇論文,整體錄用率僅 24.52%,最終僅 4 篇論文獲最佳論文獎,入選機率不足萬分之二。參與競爭包括 Google、Microsoft、OpenAI 及麻省理工學院等全球頂尖機構,Alibaba 能在激烈競爭勝出,充分展現其 AI 基礎研究深厚實力。

值得關注是中國 AI 研究在全球舞台扮演越趨重要角色。根據 Digital Science 發布報告,2024 年中國 AI 研究論文產出已匹敵美國、英國和歐盟總和,佔據全球逾 40% 引用關注度。史丹福 AI 指數報告亦顯示,中國在 AI 專利、研究產出和開源模型活動方面領先全球,目前僅在尖端模型發布數量落後美國。中國擁有約 30,000 名活躍 AI 研究人員,且研究人力年輕化、成長快速,為長期創新奠定獨特優勢。

大模型訓練成本革命產業意義

研究產業價值在於為大模型降低成本與提升效益提供可行路徑。當前 AI 領域面臨訓練成本高昂挑戰,過去 8 年間 AI 模型訓練成本飆升約 2,400 倍,頂級模型訓練費用高達 10 億美元(約港幣 78 億元)。通義千問團隊門控注意力機制研究證實,透過架構創新可在維持甚至提升效能同時,將訓練成本降低 90% 以上。

技術突破使企業級部署和即時應用成常態。Alibaba Cloud 已憑藉包括通義千問在內 AI 能力,與 Google、OpenAI 並列被 Gartner 確立為生成式 AI 領導者地位。通義千問首席科學家表示,對門控機制等模型機制深入理解,除為大語言模型架構設計提供新方向,亦為構建更穩定、更高效、更可控大模型奠定基礎。

開源生態驅動全球影響力

Alibaba 透過建立中國最大開源 AI 社群 ModelScope,目前累計服務逾 1,800 萬用戶,涵蓋逾 10 萬個模型,彰顯其在開源領域深厚影響力。開源策略除降低 AI 技術採用門檻,亦促進 Alibaba 自身雲端生態系統發展;當開發者在通義千問模型構建應用時,自然融入 Alibaba 利潤日益增長雲端業務。

對全球 AI 產業而言,獲獎研究及其產業化應用預示大模型技術正從「能力競賽」轉向「生態協同」階段。隨著門控注意力機制等創新技術普及,AI 大模型將更高效、穩定且易於部署,推動人工智能從實驗室走向更廣泛商業場景。此乃中國 AI 研究重要里程碑,亦是全球 AI 技術進步共同成果。

資料來源:新浪財經快科技36氪Digital ScienceAlibaba News

 

read more
IT 基建企業趨勢業界消息資訊及通訊科技

越南 5G 市場大洗牌:Huawei 及 ZTE 逆襲拿下 4,300 萬美元訂單


越南 5G 市場大洗牌:Huawei 及 ZTE 逆襲拿下 4,300 萬美元訂單

越南國營電訊商今年向 Huawei(華為)及 ZTE(中興通訊)批出總值超過 US$ 4,300 萬(約港幣 3.35 億元)的 5G 設備合約,標誌著中美科技角力在東南亞戰場出現重大轉折。這系列未曾公開披露的交易發生於美國對越南商品加徵 20% 關稅後的敏感時期,令西方國家對區域網絡安全高度警戒。

根據路透社取得採購數據顯示,今年 4 月由 Huawei 牽頭財團獲得價值 US$ 2,300 萬(約港幣 1.79 億元)的 5G 設備合約,時間點剛好在白宮宣布對越南商品徵稅數週後。ZTE 則在今年接連拿下最少兩份合約,總額超過 US$ 2,000 萬(約港幣 1.56 億元),其中最近一份於 11 月下旬簽署,負責供應 5G 天線設備。首份公開披露的中國廠商合約出現在今年 9 月,正值美國關稅政策生效一個月之際。

地緣政治催化:美越關稅戰重塑供應鏈格局

美越貿易關係今年經歷劇烈震盪,為中國電訊設備商創造突破口。美國總統 Trump 簽署第 14257 號行政命令,於 2025 年 4 月 2 日對越南商品加徵 20% 互惠關稅,並於 8 月 7 日正式生效。這項政策源於美國對越南高達 US$ 1,000 億(約港幣 7,800 億元)貿易逆差,涵蓋輕工業機械、電子產品等關鍵領域,有效稅率最高可達 30%。

有外交渠道消息人士向路透社透露,西方高級官員近數週在河內最少召開兩次會議,專門討論中國廠商合約議題。其中一場會議上,美國官員明確警告越南政府,採用中國設備可能削弱華盛頓對越南網絡信任度,並影響越南取得美國先進技術管道。另一場 11 月閉門會議則探討將使用中國設備的網絡區域進行隔離,以降低潛在數據外洩風險。

市場競爭新態勢:北歐與中國廠商分食越南 5G 版圖

雖然中國廠商異軍突起,瑞典 Ericsson 與芬蘭 Nokia 仍牢牢掌握越南 5G 核心基建。2024 年 9 月,Ericsson 宣布獲得越南軍方旗下電訊龍頭 Viettel 的 5G 無線接入網絡(RAN)主要份額,部署範圍涵蓋首都河內及全國大多數省份。Nokia 同期亦與 Viettel 簽署合約,負責 22 個省份共 2,500 個基站建設。美國晶片製造商 Qualcomm 則提供額外網絡設備支援。

公開採購記錄顯示,Huawei 在今年多場 5G 設備標案中落敗,但仍持續提供技術服務。關鍵突破出現在今年 6 月,Huawei 與 Viettel 簽署 5G 技術轉移協議,由越南國防部背書。Viettel 內部人士透露,採用中國技術主要考量成本優勢。全球 5G 設備市場上,Huawei 以 31% 市佔率穩居榜首,遠超 Nokia 的 14% 及 Ericsson 的 13%,價格競爭力成為發展中國家關鍵誘因。

越南 5G 基建衝刺:2025 年目標覆蓋 90% 人口

越南政府正全力推動 5G 基建,目標於 2025 年底建成 68,457 個 5G 基站,相當於現有 4G 基站總數 57.5%。截至今年 7 月,越南三大電訊商 Viettel、VNPT 及 MobiFone 已部署約 11,000 個 5G 基站,覆蓋全國 26% 人口。Viettel 董事長陶德勝表示,該公司計劃 2025 年安裝 20,000 個基站,將數據傳輸速度提升 2.5 倍以上,期望年底達成 1,000 萬 5G 用戶。

為加速部署進度,越南政府依據第 193 號決議及第 88 號政令,對部署超過 20,000 個基站企業提供 15% 設備成本補貼。科技部副部長范德隆強調,5G 基建是越南數碼轉型關鍵支柱,國際研究顯示網絡速度每翻倍可直接貢獻 0.3% GDP 增長。這項計劃預計 2030 年將 5G 覆蓋率提升至 99% 人口。

東南亞 5G 戰場:經濟實用主義戰勝地緣政治考量

越南案例突顯東南亞國家在中美科技競賽中的務實選擇。雖然美國將 Huawei 及 ZTE 列為「不可接受的國家安全風險」並禁止其進入美國電訊網絡,瑞典等歐洲國家亦實施類似限制,但東盟十國中除越南外幾乎全數無視華盛頓警告。新加坡尤索夫伊薩東南亞研究院 2020 年調查顯示,中國電訊供應商在寮國、柬埔寨及馬來西亞偏好度甚至超越韓國 Samsung,僅在菲律賓及越南遜於美國競爭者。

全球 5G 設備市場預計將從 2024 年 US$ 218.6 億(約港幣 1,705 億元)激增至 2035 年 US$ 3,151.5 億(約港幣 24,581 億元),年複合增長率達 27.45%。在這場價值數千億美元競賽中,Huawei 憑藉技術專利積累及製造規模優勢持續領先。越南此次向中國廠商開綠燈,反映新興市場在基建缺口壓力下,優先考量經濟效益而非地緣政治陣營,這趨勢可能在美國貿易保護主義升溫背景下進一步強化。

資料來源: 路透社 Scand Asia 越南網 VietnamNet Dell’Oro Group Telecoms.com

read more
IT 基建人工智能企業趨勢

Google TPU 挑戰 GPU 霸主地位:Nvidia 單月蒸發 5 萬億市值背後的算力革命


Google TPU 挑戰 GPU 霸主地位:Nvidia 單月蒸發 5 萬億市值背後的算力革命

AI 晶片市場正經歷版圖重組。Google 正積極將其自研張量處理單元(TPU)推向外部市場,傳出與 Meta 達成價值數十億美元的合作協議,標誌著 GPU 壟斷時代開始鬆動。這消息直接衝擊 Nvidia 股價,自 10 月底至 11 月 25 日,其市值從 5.03 萬億美元暴跌至 4.32 萬億美元,單月蒸發超過 7,100 億美元(約港幣 5.54 萬億元)。本文將深入分析這場算力革命如何重塑科技巨頭的競爭格局、技術路線之爭,以及企業未來的戰略選擇。

科技巨頭打破 GPU 依賴:多元化算力成新常態

多家外媒報導顯示,Meta 正考慮從 2027 年開始在其數據中心部署 Google 的 TPU v7(Ironwood)晶片,並可能最早於 2026 年通過 Google Cloud 租用 TPU 算力。這項潛在合作具有里程碑意義,這將是 Google TPU 首次進入自身生態系統以外的超大規模數據中心。對 Meta 而言,多元化算力供應具備巨大的經濟誘因。業內數據顯示,專用 ASIC 晶片在推理任務中,可實現比 GPU 高 4 倍的成本效益,當企業計劃部署數十萬顆 AI 晶片時,這種成本差異將轉化為數百億美元的節省空間。

領先 AI 公司 Anthropic 的採購模式進一步驗證這趨勢。該公司 11 月宣佈同時與 Nvidia 簽訂價值高達 1 GW(吉瓦)的 Blackwell 及 Vera Rubin 系統長期協議,並採購 Google 最新的 Ironwood TPU。這種「多路線並行」策略背後的邏輯清晰:避免供應鏈單點風險、降低議價劣勢,並保持技術靈活性。圖像生成平台 Midjourney 改用 TPU 後,推理成本削減 65%。

GPU 與 TPU 技術對決:通用性與專用效能之爭

Nvidia 行政總裁黃仁勳強調 GPU「領先一代」的全場景優勢,並指出 Nvidia 是唯一能運行所有 AI 模型並可在所有運算場景中部署的平台。這表態突顯 GPU 的核心競爭力——通用性與 CUDA 生態系統的鎖定效應。Nvidia 的 CUDA 平台經過十餘年積累,已成為 AI 開發者的業界標準。

雖然如此,TPU 在專用領域展現壓倒性優勢。Google TPU v7 在 AI 推理任務中能源消耗降低 60-65%,並在 MLPerf 基準測試的 9 個類別中贏得 8 項。TPU 採用的脈動陣列(Systolic Array)架構,能高效串流數據而無需頻繁讀取記憶體,大幅降低延遲與能源消耗。GPU 的優勢則在於可重編程性,當演算法更新或工作負載變化時,GPU 能快速適應,而 ASIC 則需重新設計。

投資機構花旗銀行預測,到 2028 年 AI 加速器市場規模將達 3,800 億美元(約港幣 2.96 萬億元),其中 GPU 將以 75% 市場佔有率主導市場,ASIC 佔比約 25%。推理成本在 AI 模型生命週期中是訓練成本的 15 倍,預計到 2030 年推理將消耗 75% 的 AI 算力資源,市場規模達 2,550 億美元(約港幣 1.99 萬億元)。這種從訓練主導到推理主導的轉變,正是 TPU 崛起的根本驅動力。

全球算力軍備競賽:雲端服務商與地緣政治驅動

除 Google 外,全球科技巨頭正掀起自研晶片浪潮。AWS 持續改良 Trainium 及 Inferentia 系列,並設立 1.1 億美元信用計劃支援學術界使用其晶片進行 AI 研究。中國市場呈現更激進的本土化路徑。Huawei 計劃 2026 年 Ascend 910C 晶片產量增倍至 60 萬顆,整個 Ascend 產品線產量將達 160 萬顆。這場算力競賽背後,是供應鏈安全與技術主權的考量。

雖然 Nvidia 在先進封裝產能分配上仍佔優勢,但投資者正重新評估 Nvidia 的增長是否已見頂。若 Google 僅搶佔 10% 的推理工作負載,將影響 Nvidia 每年 60 億美元(約港幣 468 億元)以上的潛在收益。Omdia 預測 AI 數據中心晶片市場將從 2024 年的 1,230 億美元(約港幣 9,594 億元)增至 2030 年的 2,860 億美元(約港幣 2.23 萬億元),但增速將從 2024 年的 250% 降至 2025 年的 67%。

企業戰略啟示:算力採購進入異構時代

這場算力革命為企業技術決策者帶來深刻啟示。首先,算力採購策略需從「單一供應商依賴」轉向「多架構組合」。企業應根據工作負載特性選擇晶片:訓練大模型、需要靈活性時選 GPU;推理、重複性任務則可考慮 TPU 以降低成本。其次,企業需關注總擁有成本(TCO)與能源效率。TPU 在推理場景中可節省 60-65% 電力消耗,對有 ESG 目標的企業尤其重要。

第三,評估軟件生態系統的遷移成本。CUDA 雖強大,但 PyTorch/XLA、JAX 等開源框架正降低遷移障礙。對中國企業而言,在地緣政治風險下,Huawei Ascend 等本土方案的戰略價值超越純粹效能考量。

展望未來,AI 晶片市場將從 GPU 壟斷走向「競爭性多元」。這不是 GPU 的終結,而是算力供應體系的成熟化。企業將根據成本、效能、靈活性的權衡,在 GPU、TPU、Trainium 等選項間靈活配置。對投資者而言,重點應從「誰會取代 Nvidia」轉向「誰能在異構生態中佔據關鍵節點」。這場算力革命的結局,很可能是共存而非零和遊戲。

資料來源:
CNBC
AI News Hub
Anthropic
AI Stack
Omdia

 

read more