close

IT 基建

IT 基建中小企雲端專區企業趨勢業界專訪雲端服務

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工

 

▲嘉民集團項目管理總監黃達之(左)及中華電力輸電部總監黃偉強早前在將近完工的嘉民荃灣西數據中心園區介紹發展進度。

嘉民集團項目管理總監黃達之(Gary)表示,為配合嘉民集團於全球設置 5000 兆瓦 (MW)數據中心的未來發展策略,嘉民早年收購了荃灣沙咀道一塊舊紡織廠用地 (即前中央紗廠位置),將其轉型為數據中心園區,以滿足香港及亞太地區的數據中心不斷增長的需求。他指出,由於荃灣位處市區核心地帶,亦與工商業及住宅區緊密連接,對於科網以至新興 AI 服務而言,在物理時延 (latency)上亦有優勢。因此規劃發展荃灣西數據中心園區,為香港發展先進數據中心,更有效率配合市場與政策對科網及新興數字經濟發展。

 

▲黃達之表示,嘉民集團對準香港及亞太地區的數據中心不斷增長的需求,協助各數據商加快部署。

嘉民全球佈局 滿足香港數據中心需求

Gary 表示,嘉民計劃興建四棟數據中心,定位高質量數據中心,並為每座大樓配備獨立的高壓客戶變電站,總建築面積達 160 萬平方尺,主供電設備裝置容量高達 225 兆伏安 (MVA),迎合先進數據中心、資訊科技、通訊及工業行業需要。因此,嘉民在建築規劃之初便與中電接觸,就數據中心的用電需求進行研究和規劃,並參考相關的國際標準及要求,共同探討及開發合適的設計方案,例如建設高壓客戶變電站,並配合緊急發電機和備用發電設施配置等,確保數據中心的電力具高度的穩定和可靠性,同時確保在施工和客戶變電站的交接過程安全順利進行。

▲嘉民與中電團隊緊密協作,就數據中心的用電需求共同探討合適的設計方案。

地理位置受限   後移建造位置成功破局

不知道大家有否留意,一般置於商廈的中小型客戶配電房多數位於二樓或較高的樓層,方便騰出地方用盡商用空間。但對於需要更大電量的數據中心而言,在他們的大型客戶變電站中,高壓電力裝置的體積和重量皆較為龐大,最大一組電力裝置組件更重達 70 噸。為了配合組件運輸和安裝,以及符合樓面承重限制,組件置於地面更為穩妥安全。沙咀道位於荃灣舊區,周邊街道繁忙且狹窄,項目旁邊更有一條 20 米高架空天橋,大幅增加建設過程的挑戰。因此嘉民的項目團隊向中電「取經」,透過技術研討會和參觀中電的高壓變電站,了解 132 千伏高壓變電站的配置要求,以便在建築設計的前期階段,盡早規劃數據中心園區分階段發展的佈局。

▲項目旁有一條 20 米高架空天橋 (圖左側),園區建造時需往後移 (圖右),以騰出更多空間便利工程進行。

中華電力輸電部總監黃偉強(Alex)表示,由於與嘉民預早溝通,建築前已發現地理限制,中電遂建議將數據中心園區的建造位置往後移,同時將擺放高壓電力及重型設備的房間設置在地面,既突破原有的場地限制,亦在園區與架空天橋之間騰出了更多空間,有利運送各種高電壓及重型的電力設備,更大幅減低因工程可能會帶來封路的不便。

▲中電與嘉民團隊調整園區設計以騰出空間,有利運送各種重型的電力設備。

▲其中一組電力裝置組件重達 70 噸,為配合安裝及符合樓面承重限制,組件置於地面更為穩妥安全。

Alex 亦透露,中電按數據中心園區的電力需求和分階段發展的規劃,為嘉民度身設計短、中期的供電方案,例如 11 千伏的配電網絡作為短期供電安排,滿足園區在運作初期發展所需;又提供專門的備用供電方案等,應付園區在中、後期營運階段的電力需求,令園區可以靈活發展。

聯繫數字辦 加快推進發展先進數據園區

▲黃偉強指中電發揮「超級聯繫人」角色,協助嘉民透過數字辦助力與相關政府部門協調,加快園區項目發展。

Alex 補充,中電除了提供技術支援,更協助嘉民聯繫數字政策辦公室 (數字辦)、投資推廣署等,了解在香港發展數據中心的便利措施,同時透過數字辦幫忙與相關政府部門聯繫和協調,有利項目加快發展。

Unwire.pro 翻查新聞資料,其實該數據中心園區在規劃初期,原本預計要至 2026 年才陸續完工,現時園區進度加快,更可在今年內完成,其中一個高壓客戶變電站的電力工程,更比嘉民之前規劃的時間提前半年以上完成,對於世界各地建設先進數據中心經常出現工程延誤的常態而言,也是一項鮮有的佳績。香港數據中心協會主席李松德指:「數據中心對電力需求一般都要經過一段『爬坡期』,電力公司提供不同階段的供電方案,亦有助數據中心發展更具彈性,能夠盡早投運。」

 

 

read more
IT 基建人工智能企業趨勢應用方案

超音速技術「落地」變現:Boom 以航空引擎搶攻數據中心電力市場

美國超音速飛機製造商 Boom Supersonic 宣布,獲得價值超過 12.5 億美元(約港幣 97.5 億元)的 Superpower 燃氣輪機訂單,同時完成 3 億美元(約港幣 23.4 億元)融資,標誌航空技術首次大規模進軍 AI 數據中心發電領域。這家原本專注於 1.7 倍音速客機研發的公司,將其 Symphony 噴射引擎核心技術改造為 42 兆瓦天然氣發電機組,為能源短缺的 AI 基礎設施提供即時解決方案。

航空引擎的地面進化論

Boom 的 Superpower 發電系統與其 Symphony 超音速引擎共用約 80% 零件,但關鍵差異在於放棄產生推力的渦扇結構,改為增設壓氣機級數,並在後端加裝自由動力渦輪以驅動發電裝置。這項改造充分利用超音速引擎設計的核心優勢:Symphony 引擎原本設計於 18,000 米高空、有效溫度達 71°C(160°F)的極端熱環境下持續運作,遠高於傳統亞音速引擎在 -46°C 高空環境的工作條件 。

這種耐熱特性轉化為地面發電的競爭優勢十分明顯。傳統航改燃氣輪機在環境溫度達 43°C(110°F)時會損失 20-30% 輸出功率,但 Superpower 能維持全額 42 兆瓦輸出且無需水冷系統。整套機組封裝在標準貨櫃尺寸內,基礎設施完成後現場安裝僅需兩週,這種模組化設計讓數據中心能快速擴充電力容量。系統採用天然氣為主要燃料,緊急狀況下可切換至柴油,並配備雲端監控系統即時傳輸性能數據 。

AI 運算引爆的電力軍備競賽

全球數據中心正面臨史無前例的電力缺口。Goldman Sachs 研究預測,到 2030 年全球數據中心用電需求將較 2023 年激增 165%,其中 AI 運算佔比將從目前 14% 攀升至 27%。Deloitte 的保守估計也指出,到 2030 年全球數據中心年耗電量將達 1,065 太瓦時(TWh),相當於日本全國用電量 。

BloombergNEF 最新預測顯示,美國數據中心電力需求將從 2024 年的 25 吉瓦(GW)飆升至 2035 年的 106 吉瓦,相當於需要新增 81 吉瓦發電容量。美國能源部估計,到 2028 年數據中心可能佔美國尖峰用電 12%,到 2035 年這比例將攀升至 8.6%,超越電動車成為最大的新興用電來源。這種爆炸性增長迫使科技巨頭重啟退役核電廠(如 Microsoft 與 Three Mile Island 的合作)或投資小型模組化反應爐(SMR),但核能建設需時甚久,天然氣輪機成為填補電力缺口的務實選擇 。

Crusoe 能源共同創辦人兼行政總裁 Chase Lochmiller 表示:「Boom 在動力渦輪技術上的創新方法,建立在其超音速飛行領域令人印象深刻的突破之上」。這家丹佛 AI 基礎設施開發商已訂購 29 台 Superpower 機組,總裝機容量達 1.21 吉瓦,將用於支援其整合熱管理、現場發電與高效能運算的新一代天然氣數據中心 。

技術變現的雙軌戰略與市場卡位

Boom 的商業模式創新在於將長期技術研發轉化為短期現金流。此次由 Darsana Capital Partners 領投的 3 億美元(約港幣 23.4 億元)融資,參與方包括 Altimeter Capital、ARK Invest、Bessemer Venture Partners、Robinhood Ventures 和 Y Combinator。公司目標是到 2030 年將 Superpower 年產能提升至 4 吉瓦以上,每套機組售價約每千瓦 1,033 美元(約港幣 8,057 元)(含渦輪機本體、發電機、控制系統和預防性保養),但不包含併網設備、排放控制裝置和場地建設 。

這策略讓 Boom 直接挑戰傳統航改燃氣輪機巨頭。GE Vernova 已向 Crusoe 交付 29 台 LM2500XPRESS 航改燃氣輪機(單機約 35 兆瓦),Siemens Energy、Solar Turbines 和 Mitsubishi Power 也積極搶佔這市場。不過 Boom 強調其產品的差異化優勢:在 43°C 以上高溫環境保持滿載輸出、完全無需水資源、以及從超音速試飛機 XB-1 繼承的遙測與雲端運維能力 。

創辦人兼行政總裁 Blake Scholl——這位 Carnegie Mellon University 電腦科學系校友曾在 24 歲時於 Amazon 負責年營收達 3 億美元(約港幣 23.4 億元)的項目,後來共同創辦被 Groupon 收購的 Kima Labs——表示:「超音速技術除了能加速飛行,也將成為人工智能時代的加速器。」他指出,Superpower 與 Symphony 共用零件的策略能壓縮供應鏈成本並分攤研發投資,預計發電業務的現金流將「顯著增強」Overture 超音速客機項目的資金安全性 。

從天空到地面的風險對沖

Boom 的技術「落地」策略本質上是一場高風險的資金平衡術。超音速民航歷來因成本高昂、環保爭議和 Concorde 失敗陰影而融資困難,Overture 客機項目至今仍在等待 Symphony 引擎的全面測試和適航認證。透過將相同的引擎核心技術應用於地面發電,公司既能提前驗證引擎可靠性數據(每台 Superpower 渦輪機都將回傳性能數據),又能創造即時收入支撐研發開支 。

然而這種雙軌戰略也面臨執行風險。航空業觀察家指出,Boom 需要同時掌握兩個截然不同的市場:一邊是受到嚴格監管、要求極致安全的民航業;另一邊是競爭激烈、價格敏感的能源基礎設施市場。Superpower 訂單總額 12.5 億美元(約港幣 97.5 億元)雖然可觀,但分攤到 2030 年的產能爬坡期,能否完全覆蓋 Overture 項目所需的數十億美元開發成本仍是未知數 。

科技產業的能源轉型新選擇

Boom 的案例揭示一個更廣泛趨勢:先進製造技術正跨界解決能源基礎設施瓶頸。除了航改燃氣輪機,Oracle 與 OpenAI 在 Texas 的 Stargate 項目也結合天然氣輪機與燃料電池,預計到 2026 年提供超過 1 吉瓦電力。這種「現場發電」(on-site generation)模式讓科技公司擺脫電網限制,但也引致對天然氣依賴度上升與碳排放目標衝突的質疑 。

對企業決策者而言,Boom 的策略提供三點啟示:技術資產的多元化變現能緩解單一市場的資金壓力;高溫高壓極端環境的工程能力具有跨領域應用價值;AI 基礎設施建設正在重構能源、製造與科技產業的邊界。隨著 2030 年代超音速民航與 AI 運算雙雙進入商業化高峰,這場「上天入地」的技術競賽才剛剛開始。

資料來源:
Yahoo Finance
Goldman Sachs Research
BloombergNEF
Boom Supersonic
GE Vernova

read more
IT 基建人工智能企業趨勢

IBM 斥資 110 億美元收購 Confluent 科技巨頭建立企業 AI 數據中樞關鍵一役


IBM 斥資 110 億美元收購 Confluent  科技巨頭建立企業 AI 數據中樞關鍵一役

IBM 於 2025 年 12 月 8 日正式宣布以 110 億美元(約港幣 858 億元)收購數據串流平台領導者 Confluent,這是該公司在行政總裁 Arvind Krishna 領導下推動混合雲與 AI 戰略的又一重大舉措。根據協議,IBM 將以每股 31 美元(約港幣 241.8 元)現金收購 Confluent 全部流通股份,此交易已獲兩家公司董事會批准,預計將用現有現金完成。這項交易除了是 IBM 近年來最大規模收購之一,更標誌著科技巨頭在生成式 AI 時代爭奪數據基建控制權的競爭白熱化。

數據串流平台成 AI 時代必爭之地

Confluent 建立在 Apache Kafka 開源平台之上,這個由其行政總裁 Jay Kreps 在 LinkedIn 任職期間共同創造的技術,已成為全球數據串流處理的標準。目前全球超過 150,000 家組織使用 Apache Kafka 實現即時數據處理,包括超過 80% 的《財富》100 強企業。Confluent 平台能夠連接、處理和治理即時數據串流,從銀行交易到網站點擊紀錄,為企業提供所謂的「中樞神經系統」以管理跨組織的即時數據流動。

IBM 將透過此收購獲得 Confluent 完整產品組合,包括數據串流服務、連接器、串流治理、串流處理和 Streaming Agents 等核心技術。分析師指出,在企業競相開發生成式 AI 推動下,市場對數據基建公司的需求激增。外界視 IBM 此舉為直接回應市場對其雲端軟件業務增長放緩的擔憂,該公司 2025 年 10 月發布的季度財報曾令投資者態度審慎。

Krishna 收購戰略:從 HashiCorp 到 Confluent 連貫布局

這是 Arvind Krishna 擔任行政總裁以來實施一系列戰略收購中的最新一筆。2024 年 IBM 以 64 億美元(約港幣 499.2 億元)收購 HashiCorp,該交易於 2025 年 2 月完成,期望能擴大其混合雲服務能力。HashiCorp 收購案預計每年為 IBM 帶來 8 億美元(約港幣 62.4 億元)營收貢獻,進一步鞏固其在基建軟件領域地位。

Krishna 的戰略核心圍繞三大支柱展開:雲原生整合、AI 驅動的效率提升和 SaaS 級別的可擴展性。根據 IBM 2025 年第三季度財報,該公司生成式 AI 業務賬面價值已達 95 億美元(約港幣 741 億元),其中生成式 AI 諮詢服務單季就達到 15 億美元(約港幣 117 億元)。Melius Research 最近將 IBM 目標股價上調至 350 美元(約港幣 2,730 元),預計到 2027 年其 EV/FCF 倍數將達到 23 倍,認為 IBM 的混合雲和 AI 優勢將帶來基建軟件業務雙位數增長。

與 Salesforce 收購 Informatica 交易對比與啟示

IBM 收購 Confluent 交易規模,超過今年 5 月 Salesforce 以約 80 億美元(約港幣 624 億元)收購 Informatica 的案例。Salesforce 收購 Informatica 主要是為增強其 Agentforce 平台的數據攝取、品質管理和元數據豐富能力。然而業界分析指出,Salesforce 收購策略更傾向將 Informatica 技術深度整合到自家生態系統,而非作為獨立平台繼續發展。

相比之下,IBM 強調 Confluent 將協助其建立「端到端智能數據平台」,服務企業生成式 AI 和 AI 代理部署需求。這種定位反映兩家公司不同的戰略取向:Salesforce 聚焦於 CRM 和銷售自動化的垂直整合,IBM 則致力成為「中立企業級技術整合商」,為 85% 的《財富》500 強企業提供混合雲解決方案。

數據串流市場未來圖景與企業影響

數據串流技術正成為 AI 時代關鍵基建。2025 年數據串流報告顯示,93% IT 領導者認為採用「左移」方法至少能帶來四項潛在好處,86% IT 領導者強調數據串流投資的穩定增長與大量新採用者湧入同步進行。行業專家預測,能夠以即時數據串流形式分享數據的企業將在 AI 浪潮中獲益最多,實時數據的貨幣化價值將呈現爆炸性增長。

對企業而言,這項收購意味 IBM 將提供更完整混合雲至 AI 解決方案。Confluent 平台支援 Confluent Cloud(全託管部署)和 Confluent Platform(自行管理部署)兩種靈活部署選項,這與 IBM 強調的混合雲戰略高度契合。然而交易仍需獲得 Confluent 股東批准、監管機構審批及其他慣例成交條件。隨著 IBM、Salesforce 等科技巨頭加速布局數據基建領域,企業選擇數據平台時將面臨更多整合性解決方案,但也需謹慎評估供應商鎖定風險。

資料來源:
IBM Official Newsroom | Reuters | Bloomberg | Apache Kafka Business Analysis | AI Invest Market Analysis

read more
IT 基建人工智能業界消息

Nvidia 黃仁勳盛讚華為「史上最強」 AI 競爭重塑全球格局


Nvidia 黃仁勳盛讚華為「史上最強」 AI 競爭重塑全球格局

Nvidia 行政總裁黃仁勳於華盛頓戰略與國際研究中心(CSIS)公開表示,華為是「歷史上最強大的科技公司之一,值得每個人尊敬」。這已是這位 AI 晶片霸主多次公開讚賞其最強競爭對手。在美中科技競爭白熱化當下,黃仁勳的表態突顯一個深刻現實:美國對華晶片出口管制,正催生一個強大且獨立的替代供應鏈。

來自對手的背書與市場變局

黃仁勳在 CSIS 活動中警告,美國限制 Nvidia 晶片對華出口「實質上已拱手讓出全球第二大人工智能市場」,這將為華為等中國企業提供技術成熟空間,最終使其具備全球競爭實力。他早前訪問北京時就表示,華為極具創新力,「從公司規模、人員規模和技術能力來看,他們既廣又深」,在自動駕駛和 AI 技術領域都非常出色。

數據揭示驚人變遷。Nvidia 在中國市場佔有率從 95% 降至接近 0%。然而 2024 年中國市場 Nvidia H20 系列晶片出貨量約 60 萬至 80 萬枚,實際市場佔有率仍超 60%。同時亦顯示華為正快速崛起,其昇騰 910D 處理器期望能挑戰 Nvidia H100,首批樣品預計 2025 年 5 月推出。更重要是昇騰 910C 良品率已達約 40%,與 Nvidia H100 相當,直接影響晶片成本和供應能力。

華為的全棧技術與全球擴張

華為在自動駕駛領域展現驚人實力。其 MDC 智能駕駛計算平台基於自研昇騰晶片,能實現 L4 級別自動駕駛。截至 2024 年 10 月,華為 ADS 智駕總里程超 7.36 億公里,城區智駕里程突破 1 億公里,模型迭代週期保持在 5 天以內。

黃仁勳特別讚揚華為的全棧能力:「他們在晶片設計、系統工程、網絡技術等領域都表現出色,還擁有自主雲端服務」。他警告正如「一帶一路」倡議協助華為出口 5G 技術,現在又出現 AI 領域的「一帶一路」。黃仁勳分析佈局越早,越能搶先搭建生態系統,讓相關國家形成路徑依賴。

競爭哲學與企業啟示

當被問及是否將華為當作對手時,黃仁勳回答:「他們是我們的競爭對手,但仍然可以欽佩和尊重競爭對手,對手不是敵人」。他強調:「世界很大,我希望未來我們能繼續競爭很多年,但我對他們的感情是欽佩、尊重,並且充滿競爭意識。」

Nvidia 2024 年文件中首度將華為認定為「最大競爭對手」。有消息指出百度已轉向華為下單,表明中國公司已開始擺脫對美國技術依賴。黃仁勳預計中國市場有 500 億美元(約港幣 3,900 億元)商機,若有強競爭力產品可滿足市場,預計有 50% 年增長。

對全球企業而言這場競爭揭示關鍵趨勢:封鎖最大後果是創造出一個強大且獨立的替代市場與供應鏈。技術自主重要性日益突顯,全棧技術能力將成為未來競爭核心優勢。分析師預測美國可能繼續擴大出口管制,而中國將持續推動技術自主,加大對半導體產業投資。在技術民族主義日益抬頭的今天,全球科技產業如何在競爭與合作之間找平衡,是企業戰略問題,更是關乎全球創新生態未來走向的關鍵議題。

資料來源: Bloomberg 新浪財經 OFweek人工智能網 Microchip USA CSIS

 

read more
IT 基建人工智能企業趨勢

雲端巨頭罕見攜手:Amazon 與 Google 如何改變企業多雲策略格局


雲端巨頭罕見攜手:Amazon 與 Google 如何改變企業多雲策略格局

Amazon 與 Google 最近宣布推出聯合開發的多雲互聯服務,讓企業客戶能在數分鐘內建立兩大雲端平台之間的私有高速連接。這項服務整合了 AWS Interconnect-multicloud 與 Google Cloud 的 Cross-Cloud Interconnect,徹底改變過往需要數週甚至數月的手動配置流程。企業軟件巨頭 Salesforce 已成為首批採用者,顯示這項合作對企業級應用的策略價值。

技術創新背後:從週級部署到分鐘級啟動的商業價值

傳統的跨雲連接需要企業手動設置硬件組件、配置 BGP 會話、分配自治系統編號,並建立複雜的路由策略以滿足效能和可靠性要求。這個過程通常需要協調內部和外部多個團隊,耗時數週到數月。新的聯合解決方案完全抽象化了這些複雜性,客戶現在可以通過任一雲端控制台(Console)或 API 按需配置專用頻寬,在分鐘內建立連接。

這項服務採用四重冗餘架構,跨越獨立的互聯設施和路由器,並由兩家供應商持續監控以主動檢測和解決問題。平台邊緣路由器之間的流量使用 MACsec 加密技術保護。AWS 網絡服務副總裁 Robert Kennedy 表示:「這項合作使客戶能夠以簡化的全球連接性和增強的營運效率,在雲端之間移動數據和應用程式。」

Salesforce 軟件工程高級副總裁 Jim Ostrognai 指出:「AWS Interconnect-multicloud 讓我們能夠像部署內部 AWS 資源一樣輕鬆地建立與 Google Cloud 的關鍵橋樑,利用預建的容量池和我們團隊已經熟悉和喜愛的工具。」這種原生的流程化體驗加速了客戶將 AI 和分析建立在可信數據之上的能力,無論數據存放在何處。

市場需求驅動:多雲策略成為企業風險管理新常態

2025 年第四季度的數據顯示,88% 的雲端買家正在部署或營運混合雲,79% 已經使用多個雲端供應商。這種趨勢反映了企業對營運韌性和避免供應商鎖定的迫切需求。多雲策略讓組織能夠根據特定需求從不同供應商選擇最佳服務,並通過在多個平台分散工作負載來增強營運韌性,降低特定供應商問題導致的停機風險。

此次合作時機特別關鍵,距離 2025 年 10 月 20 日 AWS US-EAST-1 區域重大故障僅一個多月。該故障導致全球超過 3,500 家公司受到影響,Downdetector 記錄了超過 1,700 萬份用戶報告,較日常基準增加 970%。分析公司 Parametrix 估計,此次故障給美國企業帶來 5 億至 6.5 億美元(約港幣 39 億至 50.7 億元)的損失。這次事件突顯了單一雲端供應商的系統性風險,促使更多企業重新評估其雲端架構策略。

CIO Dive 的分析師 Dan Sustar 指出,Salesforce 對這項倡議的支持也通過將 Google Cloud「作為對抗 Microsoft Azure 在 AI 原生雲端主導地位競賽中的競爭堡壘」來加強 AWS。這種策略聯盟反映了雲端市場競爭格局的微妙變化。

產業競合新局:從零和博弈到生態系統共榮

2024 年第四季度全球雲端基礎設施服務市場規模達到 900 億美元(約港幣 7,020 億元),年增 22%。AWS 以 30% 的市場佔有率保持領先地位,Microsoft Azure 佔 21%,Google Cloud 佔 12%。三大巨頭合計控制約 68% 的全球雲端市場。雖然市場佔有率存在差距,Google Cloud 在 2024 年第四季度實現 30% 的年增長率,達到 120 億美元(約港幣 936 億元)的季度營收,年化營收達到創紀錄的 480 億美元(約港幣 3,744 億元)。

IDC 全球企業基礎設施追蹤總監 Juan Pablo Seminara 表示:「雲端基礎設施支出增長在第四季度再次超出市場預期。從簡單聊天機械人演進到推理模型再到代理式 AI,將需要多個數量級的運算能力,特別是用於推理。」IDC 預測,2025 年雲端基礎設施支出將比 2024 年增長 33.3%,達到 2,715 億美元(約港幣 2 兆 1,177 億元)。長期來看,IDC 預測 2024 至 2029 年雲端基礎設施支出的複合年增長率為 17.8%,到 2029 年將達到 4,619 億美元(約港幣 3 兆 6,028 億元),佔運算和儲存基礎設施總支出的 83%。

AWS 宣布這項多雲網絡產品目前處於預覽階段,並計劃在 2026 年納入 Microsoft Azure。這個開放規範的網絡互操作性標準最初由 AWS 提出,期望能讓任何供應商都能採用,現在與 Google Cloud 合作率先推向市場。這種從競爭到合作的轉變,標誌著雲端產業正從「零和博弈」轉向「生態系統共榮」的新階段。

企業策略啟示:AI 時代的基礎設施投資新邏輯

這項合作對企業的最重要啟示是:多雲架構不再是技術問題,而是業務連續性和風險管理的策略選擇。採用多雲策略的企業在災難復原指標上表現優於單一雲端部署 30%,並能在停機或價格波動期間即時轉移工作負載。

隨著人工智能應用加深,企業越來越認識到,在財務、市場營銷和人力資源等各個組織職能中深度整合 AI 需要現代化整個基礎設施架構。根據 S&P Global Market Intelligence 451 Research 的研究,雲端基礎設施和網絡保安是 2024 年第四季度最高的支出優先事項,其次是 AI 技術。2024 年生成式 AI 資金達到超過 560 億美元(約港幣 4,368 億元),幾乎是 2023 年的兩倍,投資者專注於精選贏家和基礎設施增長。

企業領導者現在面臨的問題不再是「是否採用多雲」,而是「如何最有效地實施多雲策略」。這項 AWS 與 Google Cloud 的聯合解決方案提供了一個範本:通過標準化的互操作性規範和自動化的配置流程,企業可以在不犧牲效能或保安性的前提下,實現真正的雲端靈活性。未來隨著 Microsoft Azure 的加入,企業將擁有更完整的多雲生態系統選擇權,這將進一步推動數碼轉型的深度和廣度。

資料來源: Google Cloud AWS CIO Dive IDC CRN

 

read more
IT 基建人工智能企業趨勢業界消息

Intel 前 CEO 預言:量子運算兩年內顛覆 GPU 霸權 AI 泡沫臨近


Intel 前 CEO 預言:量子運算兩年內顛覆 GPU 霸權 AI 泡沫臨近

Intel 前行政總裁 Pat Gelsinger 近日接受《Financial Times》專訪時拋出震撼預言:量子運算最快兩年內將成為主流技術,GPU 晶片時代將比市場預期更早結束,當前 AI 產業的投資熱潮可能面臨重大轉折點。這番言論與 Nvidia 行政總裁黃仁勳「量子運算至少還需 20 年」的論調形成強烈對比,在半導體產業引起激烈辯論。

Pat Gelsinger 目前擔任創投公司 Playground Global 合夥人,該公司於 2025 年 9 月領投量子演算法公司 Phasecraft 3,400 萬美元(約港幣 2.65 億元)B 輪融資,顯示其對量子技術的重點投資。這場關於運算未來的論戰,除了涉及技術路線之爭,更牽動全球數千億美元的 AI 基礎建設投資佈局。

運算典範三位一體:為何兩年時間表震驚業界

Pat Gelsinger 將傳統 CPU 運算、AI 加速運算(GPU)與量子運算並列為「運算領域的三大支柱」(Holy Trinity of Computation)。他指出,量子位元(qubits)技術的穩定性改善、錯誤校正能力提升以及商業化時程加速,都超出主流預期。Pat Gelsinger 強調:「兩年時間就足夠」,一旦量子位元技術投入應用,傳統 CPU 架構將面臨挑戰,GPU 與 AI 加速器的角色將被重新定義,整個運算堆疊將經歷典範轉移。他認為 GPU 價格飈升正助長 AI 市場的投機行為,當量子運算展現真正能力時,產業將迎來重大轉折點,現有架構將被重新評估。

然而這一時間表遭到業界質疑。Nvidia 行政總裁黃仁勳在 2025 年初 CES 大會上明確表示,實用量子電腦可能需要 15 至 30 年,20 年是較合理的估計。黃仁勳指出量子位元的脆弱性、高錯誤率以及擴展困難等技術障礙。行業分析師 Ivana Delevska 也認為「15 至 20 年時間表非常現實」。這場觀點對立背後,反映量子運算發展路徑的根本分歧:是等待完美硬件,還是在現有含雜訊中型量子(NISQ)裝置基礎上加速應用。

市場規模暴增五倍:量子運算商業化提速證據

數據顯示 Pat Gelsinger 的樂觀並非空穴來風。全球量子運算市場在 2025 年已達 18 億至 35 億美元(約港幣 140 億至 273 億元)規模,預計 2029 年將成長至 53 億美元(約港幣 413 億元),年複合成長率達 32.7%。更積極的預測顯示,市場規模可能在 2030 年達到 202 億美元(約港幣 1,575 億元),年複合成長率高達 41.8%,成為本十年成長最快的科技領域之一。投資信心的提升源於技術突破加速:中國光量子晶片廠商聲稱其產品在 AI 工作負載上的處理速度是 Nvidia GPU 的 1,000 倍,且已部署於航天和金融產業。

產業發展出現六大關鍵趨勢:邏輯量子位元實驗增加、針對特定問題類別開發專用硬件與軟件、中等規模雜訊量子裝置的網絡化連接、軟件抽象層的擴展、人才培育工具的普及,以及透過新材料和製程持續改善物理量子位元效能。Phasecraft 等公司已與 Google Quantum AI、IBM、Quantinuum 等硬件領導者合作,並為 Johnson Matthey、Oxford PV、英國國家能源系統營運商等終端用家提供解決方案,證明量子應用正從實驗室走向產業現場。

GPU 霸權真會終結?互補共存才是主流預測

雖然 Pat Gelsinger 預言 GPU 將在本世紀末前被量子技術取代,多數專家認為量子處理器(QPU)不會完全取代 GPU,而是在特定應用場景形成互補。量子運算擅長「小數據、大運算」問題,如真隨機數生成和密碼學,但無法解決所有問題。產業共識指向「量子增強」(quantum-enhanced)模式:將量子運算作為傳統運算的夥伴,克服其限制,讓現有 NISQ 裝置能處理以往無法觸及的問題,而非等待完美硬件才開始應用。

Pat Gelsinger 在 Playground Global 的投資經驗強化了他的信念。該創投公司 2025 年 9 月參與 Phasecraft 融資案,合夥人 Peter Barrett 表示:「隨著 Phasecraft 的量子演算法進展,我們正從發現走向設計,進入化學、材料科學和醫學前所未有的活力時代」。Phasecraft 的演算法已讓材料模擬效率提升數百萬倍,並應用於藥物開發和能源網絡最佳化。這種「軟硬體融合」策略,正在縮短量子優勢實現的時間表。預計 2030 年的數據中心將同時配備量子、AI 和通用運算能力,形成混合運算生態系統。

Intel 18A 製程爭議:技術賭注如何影響判斷

Pat Gelsinger 對量子運算的積極態度,或許與他在 Intel 遭遇的挫折有關。他在專訪中坦言,接手 Intel 時發現公司「衰敗程度比想像更深、更嚴重」,在他回任前五年「沒有任何產品準時交付」,基本工程紀律嚴重流失。18A 製程技術是 Intel 追趕 TSMC 的關鍵戰略節點,Pat Gelsinger 承諾五年內完成,但在產品交付前就被解僱。新任行政總裁陳立武(Lip-Bu Tan)上任後快速啟動成本削減,並在 2025 年 6 月開始暗示 18A 製程對新客戶吸引力下降。

18A 製程採用創新的 RibbonFET 全環繞閘極電晶體和 PowerVia 背面供電技術,原定 2025 年下半年進入量產。然而陳立武透露,雖然 18A 在 2025 年第三季取得可用良率,可開始生產 Panther Lake 處理器,但良率提升速度緩慢,商業化成效仍不理想。Intel 預計 18A 良率要到 2027 年才能達到業界標準水準。有外媒報導指出,陳立武已指示公司準備多項方案供董事會討論,包括停止向新客戶推廣 18A 的可能性,這將是他上任以來最重大的戰略轉向。Pat Gelsinger 透露陳立武最終在五年期限前終止該專案,但 Intel 官方聲明顯示 18A 仍將作為至少三代消費和伺服器產品的基礎。

Microsoft 與 OpenAI 關係解密:誰才是真正主導者

Pat Gelsinger 將 Microsoft 與 OpenAI 的合作模式類比為 Bill Gates 早年與 IBM 的夥伴關係。他認為 OpenAI 更像是 Microsoft 的「分銷合作夥伴」,核心算力與主導權實際掌握在 Microsoft 手中,OpenAI 主要負責將產品推向用戶。這評論揭示 AI 產業權力結構的本質:基礎設施提供者才是真正的控制者。Microsoft 自 2019 年起對 OpenAI 進行多年期、數十億美元的投資,並持續增加對專用超級電腦系統的投入,加速 OpenAI 的獨立 AI 研究。

兩家公司計劃在 2025 年推出的「星際之門」(Stargate)超級電腦專案,預計整合 OpenAI 即將發布的 GPT-5 模型。OpenAI 的複雜模型已無縫整合進 Microsoft 的 Copilot 助理陣列,顯著提升生產力並簡化複雜工作流程。這種深度綁定關係印證 Pat Gelsinger 的觀點:在 AI 時代,擁有運算資源和基礎設施的企業,比演算法開發者擁有更大的議價能力。當量子運算技術成熟時,這權力格局可能再次洗牌,掌握量子硬件與雲端服務的科技巨頭將佔據更有利位置。

對企業的戰略啟示:如何在運算典範轉移中佈局

Pat Gelsinger 的預言對企業決策者提出嚴峻挑戰:是否應該延緩 GPU 基礎建設的大規模投資,等待量子技術成熟?產業現實顯示,短期內 GPU 仍將主導 AI 工作負載,但企業應開始關注量子運算的早期應用場景,特別是材料模擬、藥物發現、加密技術和複雜系統改良等領域。混合運算架構將成為過渡期的主流選擇,企業需要培養同時理解傳統、AI 和量子運算的跨領域人才。

Intel 在矽基自旋量子位元、低溫 CMOS 整合和混合古典-量子系統方面的進展,顯示傳統半導體廠商正努力在量子時代保持競爭力。Pat Gelsinger 的「兩年論」究竟是基於深刻洞察還是過度樂觀,時間將給出答案。

 

資料來源:
cnBeta
Kad8
The Quantum Insider
SpinQuanta
Business Wire

 

read more
IT 基建人工智能企業趨勢業界消息

阿里通義千問獲 NeurIPS 最佳論文獎 首個中國團隊奪此殊榮


阿里通義千問獲 NeurIPS 最佳論文獎 首個中國團隊奪此殊榮

阿里通義千問(Qwen)團隊於 NeurIPS 大會上,從全球逾 20,000 篇投稿中脫穎而出並獲最佳論文獎,是本屆唯一獲此殊榮中國團隊。研究針對「注意力門控機制」,揭示提升大模型訓練效率關鍵路徑,標誌中國 AI 基礎研究能力晉身全球第一梯隊。在 AI 競爭日趨激烈下,成果對全球大模型產業發展具里程碑意義。

突破 AI 訓練瓶頸技術創新

通義千問團隊研究聚焦 Transformer 架構核心組件注意力機制,首次系統性解密「注意力門控機制」如何影響模型效能與訓練穩定性。團隊透過在 1.7B 稠密模型與 15B 混合專家模型(MoE)進行數十組大規模實驗,單組訓練數據量最高達 3.5 兆 tokens,證實門控機制能作模型「智能閥門」,有效過濾冗餘資訊並提升模型表現。

論文揭示兩大關鍵發現改寫業界對注意力機制理解。首先在 Softmax 注意力低秩映射引入非線性變換;其次利用查詢相關稀疏門控分數調節注意力輸出。此機制除緩解「啟動爆炸」和「注意力沉降」問題,亦顯著改善長文本處理外推效能。NeurIPS 評審委員會指出,方法將被廣泛採用,大幅推動社群對大語言模型注意力機制理解。

從學術突破到產業應用閉環

研究成果並非停留理論層面,已成功應用於 Qwen3-Next 模型系列,顯著提升模型效能與穩健性。Qwen3-Next 採用創新混合注意力架構,實現 80B 參數僅需啟動 3B 算力即媲美 235B 密集模型效能,訓練成本較傳統密集模型降逾 90%。效率革命令長文本推理處理量提升 10 倍,單卡即可在 24GB 視像記憶體運作 80B 模型,徹底改變大模型部署經濟邏輯。

目前阿里通義千問已開源逾 300 款模型,覆蓋全模態及全尺寸,全球累計下載量突破 7 億次,衍生模型數量逾 18 萬個。《財富》雜誌 2025 年「改變世界」榜單特別肯定 Alibaba 開源策略,認為透過免費或低成本提供 AI 模型,正支援初創企業、研究人員與技術愛好者探索前沿技術,並促使 OpenAI、xAI 等美國同行紛紛發布開源模型。

頂級 AI 會議認可背後競爭格局

NeurIPS 作為人工智能領域最具影響力學術會議,曾孕育 Transformer、AlexNet 等改變行業里程碑成果。本屆會議接收 5,524 篇論文,整體錄用率僅 24.52%,最終僅 4 篇論文獲最佳論文獎,入選機率不足萬分之二。參與競爭包括 Google、Microsoft、OpenAI 及麻省理工學院等全球頂尖機構,Alibaba 能在激烈競爭勝出,充分展現其 AI 基礎研究深厚實力。

值得關注是中國 AI 研究在全球舞台扮演越趨重要角色。根據 Digital Science 發布報告,2024 年中國 AI 研究論文產出已匹敵美國、英國和歐盟總和,佔據全球逾 40% 引用關注度。史丹福 AI 指數報告亦顯示,中國在 AI 專利、研究產出和開源模型活動方面領先全球,目前僅在尖端模型發布數量落後美國。中國擁有約 30,000 名活躍 AI 研究人員,且研究人力年輕化、成長快速,為長期創新奠定獨特優勢。

大模型訓練成本革命產業意義

研究產業價值在於為大模型降低成本與提升效益提供可行路徑。當前 AI 領域面臨訓練成本高昂挑戰,過去 8 年間 AI 模型訓練成本飆升約 2,400 倍,頂級模型訓練費用高達 10 億美元(約港幣 78 億元)。通義千問團隊門控注意力機制研究證實,透過架構創新可在維持甚至提升效能同時,將訓練成本降低 90% 以上。

技術突破使企業級部署和即時應用成常態。Alibaba Cloud 已憑藉包括通義千問在內 AI 能力,與 Google、OpenAI 並列被 Gartner 確立為生成式 AI 領導者地位。通義千問首席科學家表示,對門控機制等模型機制深入理解,除為大語言模型架構設計提供新方向,亦為構建更穩定、更高效、更可控大模型奠定基礎。

開源生態驅動全球影響力

Alibaba 透過建立中國最大開源 AI 社群 ModelScope,目前累計服務逾 1,800 萬用戶,涵蓋逾 10 萬個模型,彰顯其在開源領域深厚影響力。開源策略除降低 AI 技術採用門檻,亦促進 Alibaba 自身雲端生態系統發展;當開發者在通義千問模型構建應用時,自然融入 Alibaba 利潤日益增長雲端業務。

對全球 AI 產業而言,獲獎研究及其產業化應用預示大模型技術正從「能力競賽」轉向「生態協同」階段。隨著門控注意力機制等創新技術普及,AI 大模型將更高效、穩定且易於部署,推動人工智能從實驗室走向更廣泛商業場景。此乃中國 AI 研究重要里程碑,亦是全球 AI 技術進步共同成果。

資料來源:新浪財經快科技36氪Digital ScienceAlibaba News

 

read more
IT 基建企業趨勢業界消息資訊及通訊科技

越南 5G 市場大洗牌:Huawei 及 ZTE 逆襲拿下 4,300 萬美元訂單


越南 5G 市場大洗牌:Huawei 及 ZTE 逆襲拿下 4,300 萬美元訂單

越南國營電訊商今年向 Huawei(華為)及 ZTE(中興通訊)批出總值超過 US$ 4,300 萬(約港幣 3.35 億元)的 5G 設備合約,標誌著中美科技角力在東南亞戰場出現重大轉折。這系列未曾公開披露的交易發生於美國對越南商品加徵 20% 關稅後的敏感時期,令西方國家對區域網絡安全高度警戒。

根據路透社取得採購數據顯示,今年 4 月由 Huawei 牽頭財團獲得價值 US$ 2,300 萬(約港幣 1.79 億元)的 5G 設備合約,時間點剛好在白宮宣布對越南商品徵稅數週後。ZTE 則在今年接連拿下最少兩份合約,總額超過 US$ 2,000 萬(約港幣 1.56 億元),其中最近一份於 11 月下旬簽署,負責供應 5G 天線設備。首份公開披露的中國廠商合約出現在今年 9 月,正值美國關稅政策生效一個月之際。

地緣政治催化:美越關稅戰重塑供應鏈格局

美越貿易關係今年經歷劇烈震盪,為中國電訊設備商創造突破口。美國總統 Trump 簽署第 14257 號行政命令,於 2025 年 4 月 2 日對越南商品加徵 20% 互惠關稅,並於 8 月 7 日正式生效。這項政策源於美國對越南高達 US$ 1,000 億(約港幣 7,800 億元)貿易逆差,涵蓋輕工業機械、電子產品等關鍵領域,有效稅率最高可達 30%。

有外交渠道消息人士向路透社透露,西方高級官員近數週在河內最少召開兩次會議,專門討論中國廠商合約議題。其中一場會議上,美國官員明確警告越南政府,採用中國設備可能削弱華盛頓對越南網絡信任度,並影響越南取得美國先進技術管道。另一場 11 月閉門會議則探討將使用中國設備的網絡區域進行隔離,以降低潛在數據外洩風險。

市場競爭新態勢:北歐與中國廠商分食越南 5G 版圖

雖然中國廠商異軍突起,瑞典 Ericsson 與芬蘭 Nokia 仍牢牢掌握越南 5G 核心基建。2024 年 9 月,Ericsson 宣布獲得越南軍方旗下電訊龍頭 Viettel 的 5G 無線接入網絡(RAN)主要份額,部署範圍涵蓋首都河內及全國大多數省份。Nokia 同期亦與 Viettel 簽署合約,負責 22 個省份共 2,500 個基站建設。美國晶片製造商 Qualcomm 則提供額外網絡設備支援。

公開採購記錄顯示,Huawei 在今年多場 5G 設備標案中落敗,但仍持續提供技術服務。關鍵突破出現在今年 6 月,Huawei 與 Viettel 簽署 5G 技術轉移協議,由越南國防部背書。Viettel 內部人士透露,採用中國技術主要考量成本優勢。全球 5G 設備市場上,Huawei 以 31% 市佔率穩居榜首,遠超 Nokia 的 14% 及 Ericsson 的 13%,價格競爭力成為發展中國家關鍵誘因。

越南 5G 基建衝刺:2025 年目標覆蓋 90% 人口

越南政府正全力推動 5G 基建,目標於 2025 年底建成 68,457 個 5G 基站,相當於現有 4G 基站總數 57.5%。截至今年 7 月,越南三大電訊商 Viettel、VNPT 及 MobiFone 已部署約 11,000 個 5G 基站,覆蓋全國 26% 人口。Viettel 董事長陶德勝表示,該公司計劃 2025 年安裝 20,000 個基站,將數據傳輸速度提升 2.5 倍以上,期望年底達成 1,000 萬 5G 用戶。

為加速部署進度,越南政府依據第 193 號決議及第 88 號政令,對部署超過 20,000 個基站企業提供 15% 設備成本補貼。科技部副部長范德隆強調,5G 基建是越南數碼轉型關鍵支柱,國際研究顯示網絡速度每翻倍可直接貢獻 0.3% GDP 增長。這項計劃預計 2030 年將 5G 覆蓋率提升至 99% 人口。

東南亞 5G 戰場:經濟實用主義戰勝地緣政治考量

越南案例突顯東南亞國家在中美科技競賽中的務實選擇。雖然美國將 Huawei 及 ZTE 列為「不可接受的國家安全風險」並禁止其進入美國電訊網絡,瑞典等歐洲國家亦實施類似限制,但東盟十國中除越南外幾乎全數無視華盛頓警告。新加坡尤索夫伊薩東南亞研究院 2020 年調查顯示,中國電訊供應商在寮國、柬埔寨及馬來西亞偏好度甚至超越韓國 Samsung,僅在菲律賓及越南遜於美國競爭者。

全球 5G 設備市場預計將從 2024 年 US$ 218.6 億(約港幣 1,705 億元)激增至 2035 年 US$ 3,151.5 億(約港幣 24,581 億元),年複合增長率達 27.45%。在這場價值數千億美元競賽中,Huawei 憑藉技術專利積累及製造規模優勢持續領先。越南此次向中國廠商開綠燈,反映新興市場在基建缺口壓力下,優先考量經濟效益而非地緣政治陣營,這趨勢可能在美國貿易保護主義升溫背景下進一步強化。

資料來源: 路透社 Scand Asia 越南網 VietnamNet Dell’Oro Group Telecoms.com

read more
IT 基建人工智能企業趨勢

Google TPU 挑戰 GPU 霸主地位:Nvidia 單月蒸發 5 萬億市值背後的算力革命


Google TPU 挑戰 GPU 霸主地位:Nvidia 單月蒸發 5 萬億市值背後的算力革命

AI 晶片市場正經歷版圖重組。Google 正積極將其自研張量處理單元(TPU)推向外部市場,傳出與 Meta 達成價值數十億美元的合作協議,標誌著 GPU 壟斷時代開始鬆動。這消息直接衝擊 Nvidia 股價,自 10 月底至 11 月 25 日,其市值從 5.03 萬億美元暴跌至 4.32 萬億美元,單月蒸發超過 7,100 億美元(約港幣 5.54 萬億元)。本文將深入分析這場算力革命如何重塑科技巨頭的競爭格局、技術路線之爭,以及企業未來的戰略選擇。

科技巨頭打破 GPU 依賴:多元化算力成新常態

多家外媒報導顯示,Meta 正考慮從 2027 年開始在其數據中心部署 Google 的 TPU v7(Ironwood)晶片,並可能最早於 2026 年通過 Google Cloud 租用 TPU 算力。這項潛在合作具有里程碑意義,這將是 Google TPU 首次進入自身生態系統以外的超大規模數據中心。對 Meta 而言,多元化算力供應具備巨大的經濟誘因。業內數據顯示,專用 ASIC 晶片在推理任務中,可實現比 GPU 高 4 倍的成本效益,當企業計劃部署數十萬顆 AI 晶片時,這種成本差異將轉化為數百億美元的節省空間。

領先 AI 公司 Anthropic 的採購模式進一步驗證這趨勢。該公司 11 月宣佈同時與 Nvidia 簽訂價值高達 1 GW(吉瓦)的 Blackwell 及 Vera Rubin 系統長期協議,並採購 Google 最新的 Ironwood TPU。這種「多路線並行」策略背後的邏輯清晰:避免供應鏈單點風險、降低議價劣勢,並保持技術靈活性。圖像生成平台 Midjourney 改用 TPU 後,推理成本削減 65%。

GPU 與 TPU 技術對決:通用性與專用效能之爭

Nvidia 行政總裁黃仁勳強調 GPU「領先一代」的全場景優勢,並指出 Nvidia 是唯一能運行所有 AI 模型並可在所有運算場景中部署的平台。這表態突顯 GPU 的核心競爭力——通用性與 CUDA 生態系統的鎖定效應。Nvidia 的 CUDA 平台經過十餘年積累,已成為 AI 開發者的業界標準。

雖然如此,TPU 在專用領域展現壓倒性優勢。Google TPU v7 在 AI 推理任務中能源消耗降低 60-65%,並在 MLPerf 基準測試的 9 個類別中贏得 8 項。TPU 採用的脈動陣列(Systolic Array)架構,能高效串流數據而無需頻繁讀取記憶體,大幅降低延遲與能源消耗。GPU 的優勢則在於可重編程性,當演算法更新或工作負載變化時,GPU 能快速適應,而 ASIC 則需重新設計。

投資機構花旗銀行預測,到 2028 年 AI 加速器市場規模將達 3,800 億美元(約港幣 2.96 萬億元),其中 GPU 將以 75% 市場佔有率主導市場,ASIC 佔比約 25%。推理成本在 AI 模型生命週期中是訓練成本的 15 倍,預計到 2030 年推理將消耗 75% 的 AI 算力資源,市場規模達 2,550 億美元(約港幣 1.99 萬億元)。這種從訓練主導到推理主導的轉變,正是 TPU 崛起的根本驅動力。

全球算力軍備競賽:雲端服務商與地緣政治驅動

除 Google 外,全球科技巨頭正掀起自研晶片浪潮。AWS 持續改良 Trainium 及 Inferentia 系列,並設立 1.1 億美元信用計劃支援學術界使用其晶片進行 AI 研究。中國市場呈現更激進的本土化路徑。Huawei 計劃 2026 年 Ascend 910C 晶片產量增倍至 60 萬顆,整個 Ascend 產品線產量將達 160 萬顆。這場算力競賽背後,是供應鏈安全與技術主權的考量。

雖然 Nvidia 在先進封裝產能分配上仍佔優勢,但投資者正重新評估 Nvidia 的增長是否已見頂。若 Google 僅搶佔 10% 的推理工作負載,將影響 Nvidia 每年 60 億美元(約港幣 468 億元)以上的潛在收益。Omdia 預測 AI 數據中心晶片市場將從 2024 年的 1,230 億美元(約港幣 9,594 億元)增至 2030 年的 2,860 億美元(約港幣 2.23 萬億元),但增速將從 2024 年的 250% 降至 2025 年的 67%。

企業戰略啟示:算力採購進入異構時代

這場算力革命為企業技術決策者帶來深刻啟示。首先,算力採購策略需從「單一供應商依賴」轉向「多架構組合」。企業應根據工作負載特性選擇晶片:訓練大模型、需要靈活性時選 GPU;推理、重複性任務則可考慮 TPU 以降低成本。其次,企業需關注總擁有成本(TCO)與能源效率。TPU 在推理場景中可節省 60-65% 電力消耗,對有 ESG 目標的企業尤其重要。

第三,評估軟件生態系統的遷移成本。CUDA 雖強大,但 PyTorch/XLA、JAX 等開源框架正降低遷移障礙。對中國企業而言,在地緣政治風險下,Huawei Ascend 等本土方案的戰略價值超越純粹效能考量。

展望未來,AI 晶片市場將從 GPU 壟斷走向「競爭性多元」。這不是 GPU 的終結,而是算力供應體系的成熟化。企業將根據成本、效能、靈活性的權衡,在 GPU、TPU、Trainium 等選項間靈活配置。對投資者而言,重點應從「誰會取代 Nvidia」轉向「誰能在異構生態中佔據關鍵節點」。這場算力革命的結局,很可能是共存而非零和遊戲。

資料來源:
CNBC
AI News Hub
Anthropic
AI Stack
Omdia

 

read more
IT 基建資訊保安雲端服務

AWS 強化雲端韌性:Route 53 新功能承諾 US-East-1 故障期間 60 分鐘恢復 DNS 控制

AWS 於 2025 年 11 月 26 日宣布推出 Route 53「加速復原」(Accelerated Recovery)新功能。這項功能承諾在美國東部維珍尼亞區域(US-EAST-1)發生服務中斷時,企業可在 60 分鐘內恢復 DNS 記錄管理能力。此創新功能直接回應了一個月前該區域長達 15 小時的大規模故障事件,當時導致數百萬個應用程式陷入癱瘓。新功能免費提供,專為銀行、金融科技及 SaaS 等受監管行業設計,讓企業即使在區域性災難期間,仍能調整 DNS 設定、配置備援資源或重新導向流量。

十月教訓催生技術突破

2025 年 10 月 19 日晚間 11 點 49 分(太平洋時間),AWS US-EAST-1 區域內部 DNS 系統崩潰,導致該區域所有六個可用區域(Availability Zones)同步失效。這次事故暴露了一個致命盲點:即使企業將工作負載分散至多個可用區域,當區域層級的 DNS 服務故障時,所有防護措施形同虛設。根據 Ookla 統計,事故發生後兩小時內湧入超過 400 萬次故障通報,影響包括 DynamoDB、Lambda 等核心服務的端點解析。AWS 資深解決方案架構師 Micah Walter 坦承,受監管行業客戶明確表達需求:「他們需要確信能在意外的區域性中斷期間進行 DNS 變更,以便迅速配置備援雲端資源或重新導向流量」。

這次故障最令人挫折之處,在於 Route 53 的全球分散式資料平面(Data Plane)實際上持續正常運作,DNS 查詢解析、健康檢查及自動故障轉移功能均未中斷。問題核心出在控制平面(Control Plane):企業無法修改 DNS 記錄、無法調整路由政策、無法配置新基礎設施。有外媒報導指出,對於所有服務部署在 US-EAST-1 的企業而言,這 15 小時處於「徹底無助狀態」。

跨區域自動故障轉移機制運作原理

加速復原功能的技術核心,在於將公開託管區域(Public Hosted Zone)的副本,從 US-EAST-1 主要區域複製至俄勒岡州的 US-WEST-2 區域。當 AWS 偵測到維珍尼亞區域服務長時間無法使用時,系統會在 60 分鐘內自動執行故障轉移,將控制平面操作重新導向至俄勒岡區域,過程完全無需人手介入。在故障轉移期間,企業可繼續使用相同的 Route 53 API 端點執行關鍵操作,包括 ChangeResourceRecordSets(變更記錄集)、GetChange(查詢變更狀態)、ListHostedZones(列出託管區域)及 ListResourceRecordSets(列出記錄集)。

AWS 技術文件特別警示一個關鍵風險:「擱置變更」(Stranded Changes)現象。在故障轉移發生前,若 API 已回傳 HTTP 200 確認接收 DNS 變更請求,但維珍尼亞區域隨即故障,這些變更將滯留在主要區域無法傳播至全球資料平面。企業必須透過 GetChange API 檢查變更狀態是否為「PENDING」,並在故障轉移完成後手動重新提交。當主要區域恢復後,系統會自動執行故障回復(Failback),但未重新提交的擱置變更將被永久捨棄。

DNS 行業競爭格局與合規壓力

AWS 此舉正值 DNS 服務市場競爭白熱化之際。根據 2025 年最新評測,Cloudflare DNS 在全球平均回應時間為 10 毫秒,持續領先 Google DNS 的 20 毫秒。Cloudflare 的 1.1.1.1 服務提供內建惡意軟件防護與家長控制功能,而 Google DNS (8.8.8.8) 則主打可靠性與廣泛採用率。然而 AWS 的差異化策略聚焦於控制平面韌性,這正是 2025 年 10 月事故揭露的行業痛點。

受監管金融機構面臨的合規要求格外嚴苛。根據 AWS 金融服務合規框架,銀行業必須遵守 GDPR、PCI-DSS 等法規,資料儲存與處理流程需符合嚴格稽核標準。Infoblox 研究顯示,使用單一跨雲端 DNS 解決方案的企業,網絡錯誤減少 75%、雲端故障減少 44%,且故障修復時間縮短 38%。DNS 被視為企業的「心跳服務」:一旦失效,整個網絡及其連接的所有裝置將陷入癱瘓。

香港與亞太區企業的策略啟示

對香港及亞太區企業而言,這項功能帶來重要啟示。HKT Enterprise 早在 2019 年即提供業務持續性解決方案,強調快速部署以減少營運中斷。然而多數企業仍依賴單一區域架構,未充分準備跨區域災難復原計劃。DNS 專家建議,若需要有效的故障轉移能力,TTL(存活時間)應設定為 60 至 300 秒的低數值,確保 DNS 記錄更新時變更能快速生效。

雲端災難復原解決方案的關鍵特性包括:自動化 DNS 更新、N:1 拓撲(平時保持復原伺服器離線以降低成本)、以及跨平台相容性。對金融機構而言,維持跨環境的一致安全與合規態勢至關重要。AWS 的加速復原功能簡化了這一流程,但企業仍需進行嚴謹的災難復原演練,驗證故障轉移程序在高壓情境下的可靠性。

零成本部署與未來趨勢

企業可透過 AWS 管理主控台、CLI、SDK 或基礎設施即程式碼工具(如 CloudFormation、CDK)啟用加速復原功能,整個啟用過程可能需時數小時。AWS 強調此功能完全免費,無額外費用,目前僅支援公開託管區域,私有託管區域暫不適用。CloudFormation 用戶可自動追蹤 DNS 變更的複製狀態,利用 GetChange API 確認變更達到「INSYNC」狀態後才完成更新,若維珍尼亞區域故障,只需重試相同操作即可在故障轉移完成後重新提交變更。

這項功能標誌著雲端服務供應商從「追求極致可用性」轉向「承認現實並提供具體 RTO 保證」的策略轉變。當企業面對 10 月份那種災難性事故時,60 分鐘的復原時間可能意味著數百萬美元(約數千萬港元)營收損失與數十萬美元(約數百萬港元)成本的差異。未來企業架構師在設計多雲或混合雲策略時,DNS 控制平面的韌性將與資料平面的可用性同等重要。對於依賴 AWS US-EAST-1 部署關鍵業務的企業,啟用加速復原功能已不再是選項,而是確保業務持續性的必要投資。

read more
IT 基建人工智能企業趨勢業界消息

科技巨頭 AI 人才爭奪戰:NVIDIA 承諾零裁員背後的產業變革


科技巨頭 AI 人才爭奪戰:NVIDIA 承諾零裁員背後的產業變革

NVIDIA 行政總裁黃仁勳在 2025 年 11 月的全體員工大會上明確宣示,將全力推動員工使用 AI 工具,同時承諾不會因 AI 應用導致任何裁員。此聲明打破科技界普遍存在的「AI 取代論」焦慮,NVIDIA 上季新增數千名員工,目前仍有約 1 萬個職缺待補,總部停車位甚至因此變得緊張。黃仁勳在會議中直言批評部分管理層限制 AI 使用的做法是「瘋狂行為」,強調 AI 是提升生產力的關鍵,而非威脅。

NVIDIA 逆市擴張:從 2.96 萬到 3.6 萬人的成長軌跡

NVIDIA 員工規模由 2024 財年結束時的 29,600 人,增至 2025 財年的 36,000 人,年增長率達 21.6%。這項擴張與公司營收表現高度相關:2025 財年營收達 1,305 億美元(約港幣 1 兆 179 億元),按年增長 114%,當中 AI 與數據中心業務是核心驅動力。黃仁勳在會議中透露,公司已於台北和上海設立新辦公室,並在美國興建兩座新設施。根據第三方數據,NVIDIA 在 2025 年發布超過 3,000 個職缺,涵蓋工程、營運與創意部門,11 月更攀升至 4,000 個活躍職位,創 3 年新高。數據證明,AI 技術發展不但未減少就業機會,反而催生大量高技能崗位需求。值得留意的是,黃仁勳強調招聘速度需與新員工融合能力同步,顯示公司重視組織文化的可持續發展。

矽谷新標準:AI 技能由加分項變為必考題

Meta 於 2025 年 11 月宣布,從 2026 年起將「AI 驅動影響力」納入績效評估核心指標,員工需展示如何運用 AI 提升個人產出或建構團隊工具。該公司人力資源總監 Janelle Gale 在內部備忘錄中表示:「當我們邁向 AI 原生未來,期望能認可那些協助我們更快抵達目標的人才」。Microsoft 高層於 2025 年 6 月明確告知管理層:「使用 AI 不再是選項」,Google 行政總裁 Sundar Pichai 也強調 AI 對於領導 AI 競賽的必要性。根據 Dice 就業報告,截至 2025 年 9 月,美國 50% 的科技職缺要求具備 AI 技能,較 2024 年 9 月激增 98%。這轉變反映出產業共識:AI 不是取代人力的工具,而是衡量員工價值的新維度。PwC 2025 年全球 AI 就業晴雨表顯示,AI 高度暴露產業(如金融服務、軟件出版)的生產力增長從 2018 至 2022 年的 7% 飆升至 2018 至 2024 年的 27%,而 AI 低度暴露產業則從 10% 降至 9%。

恐懼與現實的落差:AI 正在創造而非消滅職位

雖則 41% 全球僱主計劃在未來 5 年因 AI 自動化縮減人力,實際數據卻呈現更複雜圖景。PwC 研究發現,自 2022 年生成式 AI 普及以來,AI 高暴露產業的每位員工營收增長達 3 倍,薪資增速則快 2 倍。對於「AI 會否取代我的工作」這問題,黃仁勳在 2025 年 5 月 Milken 會議上給出明確答案:「你不會輸給 AI,但會輸給懂得使用 AI 的人」。Boston Consulting Group 調查顯示,經歷全面 AI 驅動重組的企業員工對職業安全的擔憂(46%)高於低度 AI 化公司(34%),領導層的焦慮(43%)更超過基層員工(36%)。這種焦慮並非無根據:2025 年科技業已發生 342 宗裁員事件,影響 77,999 人,平均每天 491 人失業。然而 EY 2025 年工作重塑調查指出,當企業有效部署 AI 並配合完善培訓(每年超過 81 小時 AI 培訓的員工平均每週節省 14 小時),可釋放高達 40% 額外生產力。關鍵在於企業是否願意投資員工技能升級,而非僅將 AI 視為削減成本手段。

從工業革命到 AI 革命:工作模式的百年演進

回顧歷史,每次工業革命都重塑勞動市場結構。黃仁勳指出,現代資本主義將 7 日工作制演變為 5 日制,AI 時代可能催生 4 日工作週,「每次工業革命都會帶來社會行為的改變」。世界經濟論壇預測,到 2027 年科技驅動將創造 1,100 萬個新職位,同時淘汰 900 萬個崗位,淨增 200 萬個科技相關工作。然而這波轉型速度前所未見:AI 高暴露職業的技能需求變化速度較去年加快 66%(去年為 25%)。值得關注的是,NVIDIA 行政總裁認為真正 AI 受益者可能不是辦公室職員,而是電工、水管工和木匠等技術工人。他預測 AI 數據中心建設將帶來「每年增倍再增倍」的持續增長,技術工種將出現數十萬人需求缺口。這呼應 Thomson Reuters 2024 年調查結果:77% 專業人士認為 AI 將在 5 年內對其職業產生高度或革命性影響,較 2023 年的 67% 顯著上升。

企業決策的十字路口:效率工具還是增長引擎

科技巨頭推動 AI 全員化的背後,是對 AI 定位的根本性選擇。Meta 已將 AI 整合至招聘流程,允許候選人在編寫程式面試中使用 AI 工具,並推出內部激勵計劃,鼓勵員工透過 Metamate 或 Google Gemini 等 AI 助理撰寫績效評估。這種做法與傳統「AI 作為成本削減工具」的思維截然不同。EY 全球調查發現,65% 高層認為 AI 和預測分析將是 2025 年增長關鍵驅動力,53% 報告顯著生產力提升,50% 指出構思與內容生產速度加快。更激進的是,44% 的 C 級高層願意根據 AI 洞察推翻自己的決策,38% 願意完全授權 AI 工具做決定。對於員工而言,挑戰在於技能更新速度:McKinsey 預測到 2030 年,70% 工作技能將發生改變,30% 工作時數可能被自動化。NVIDIA 的做法提供一種可能路徑——將 AI 視為員工賦能工具,而非替代方案,透過持續培訓與文化建設,讓組織在技術躍遷中保持人力資本價值。

未來職場的新常態:適應力成為核心競爭力

NVIDIA 的「零裁員承諾」與全面 AI 化策略,揭示未來企業競爭新維度:不是選擇人或 AI,而是建構人機協作最佳模式。對於個人而言,這意味著終身學習不再是口號,而是職業生存必要條件——當 AI 高暴露職業的技能需求變化速度比低暴露職業快 66% 時,靜態技能組合將迅速貶值。對於企業而言,挑戰在於如何平衡自動化效率與員工發展投資:EY 數據顯示,提供充足 AI 培訓(每年 81 小時以上)的公司可獲得每週 14 小時生產力提升,遠超行業中位數。一個關鍵問題浮現:當 50% 科技職缺要求 AI 技能、Meta 將 AI 使用納入考核、NVIDIA 仍需 1 萬名員工時,下一個十年的「就業能力」將如何定義?答案或許在於:不是掌握 AI 技術細節,而是理解如何讓 AI 成為放大個人獨特價值的槓桿。

資料來源:
Fortune
Business Insider
Forbes
PwC
EY

read more