close

IT 基建

IT 基建中小企雲端專區企業趨勢業界專訪雲端服務

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工

 

▲嘉民集團項目管理總監黃達之(左)及中華電力輸電部總監黃偉強早前在將近完工的嘉民荃灣西數據中心園區介紹發展進度。

嘉民集團項目管理總監黃達之(Gary)表示,為配合嘉民集團於全球設置 5000 兆瓦 (MW)數據中心的未來發展策略,嘉民早年收購了荃灣沙咀道一塊舊紡織廠用地 (即前中央紗廠位置),將其轉型為數據中心園區,以滿足香港及亞太地區的數據中心不斷增長的需求。他指出,由於荃灣位處市區核心地帶,亦與工商業及住宅區緊密連接,對於科網以至新興 AI 服務而言,在物理時延 (latency)上亦有優勢。因此規劃發展荃灣西數據中心園區,為香港發展先進數據中心,更有效率配合市場與政策對科網及新興數字經濟發展。

 

▲黃達之表示,嘉民集團對準香港及亞太地區的數據中心不斷增長的需求,協助各數據商加快部署。

嘉民全球佈局 滿足香港數據中心需求

Gary 表示,嘉民計劃興建四棟數據中心,定位高質量數據中心,並為每座大樓配備獨立的高壓客戶變電站,總建築面積達 160 萬平方尺,主供電設備裝置容量高達 225 兆伏安 (MVA),迎合先進數據中心、資訊科技、通訊及工業行業需要。因此,嘉民在建築規劃之初便與中電接觸,就數據中心的用電需求進行研究和規劃,並參考相關的國際標準及要求,共同探討及開發合適的設計方案,例如建設高壓客戶變電站,並配合緊急發電機和備用發電設施配置等,確保數據中心的電力具高度的穩定和可靠性,同時確保在施工和客戶變電站的交接過程安全順利進行。

▲嘉民與中電團隊緊密協作,就數據中心的用電需求共同探討合適的設計方案。

地理位置受限   後移建造位置成功破局

不知道大家有否留意,一般置於商廈的中小型客戶配電房多數位於二樓或較高的樓層,方便騰出地方用盡商用空間。但對於需要更大電量的數據中心而言,在他們的大型客戶變電站中,高壓電力裝置的體積和重量皆較為龐大,最大一組電力裝置組件更重達 70 噸。為了配合組件運輸和安裝,以及符合樓面承重限制,組件置於地面更為穩妥安全。沙咀道位於荃灣舊區,周邊街道繁忙且狹窄,項目旁邊更有一條 20 米高架空天橋,大幅增加建設過程的挑戰。因此嘉民的項目團隊向中電「取經」,透過技術研討會和參觀中電的高壓變電站,了解 132 千伏高壓變電站的配置要求,以便在建築設計的前期階段,盡早規劃數據中心園區分階段發展的佈局。

▲項目旁有一條 20 米高架空天橋 (圖左側),園區建造時需往後移 (圖右),以騰出更多空間便利工程進行。

中華電力輸電部總監黃偉強(Alex)表示,由於與嘉民預早溝通,建築前已發現地理限制,中電遂建議將數據中心園區的建造位置往後移,同時將擺放高壓電力及重型設備的房間設置在地面,既突破原有的場地限制,亦在園區與架空天橋之間騰出了更多空間,有利運送各種高電壓及重型的電力設備,更大幅減低因工程可能會帶來封路的不便。

▲中電與嘉民團隊調整園區設計以騰出空間,有利運送各種重型的電力設備。

▲其中一組電力裝置組件重達 70 噸,為配合安裝及符合樓面承重限制,組件置於地面更為穩妥安全。

Alex 亦透露,中電按數據中心園區的電力需求和分階段發展的規劃,為嘉民度身設計短、中期的供電方案,例如 11 千伏的配電網絡作為短期供電安排,滿足園區在運作初期發展所需;又提供專門的備用供電方案等,應付園區在中、後期營運階段的電力需求,令園區可以靈活發展。

聯繫數字辦 加快推進發展先進數據園區

▲黃偉強指中電發揮「超級聯繫人」角色,協助嘉民透過數字辦助力與相關政府部門協調,加快園區項目發展。

Alex 補充,中電除了提供技術支援,更協助嘉民聯繫數字政策辦公室 (數字辦)、投資推廣署等,了解在香港發展數據中心的便利措施,同時透過數字辦幫忙與相關政府部門聯繫和協調,有利項目加快發展。

Unwire.pro 翻查新聞資料,其實該數據中心園區在規劃初期,原本預計要至 2026 年才陸續完工,現時園區進度加快,更可在今年內完成,其中一個高壓客戶變電站的電力工程,更比嘉民之前規劃的時間提前半年以上完成,對於世界各地建設先進數據中心經常出現工程延誤的常態而言,也是一項鮮有的佳績。香港數據中心協會主席李松德指:「數據中心對電力需求一般都要經過一段『爬坡期』,電力公司提供不同階段的供電方案,亦有助數據中心發展更具彈性,能夠盡早投運。」

 

 

read more
IT 基建人工智能企業趨勢

代理式 AI 驅動 ARM 轉型 數據中心業務將成最大營收引擎

高效能AI處理器芯片展示,支持數據中心轉型與營收增長.

晶片公司 Arm Holdings 宣佈,數據中心業務將於未來數年超越智能手機 IP 授權,成為公司最大營收來源。今年初推出的首款自研數據中心處理器 Arm AGI CPU,正是推動這項轉型的核心。這款晶片專為「代理式 AI」(Agentic AI)設計,反映 Arm 從 IP 授權商轉向 AI 基礎設施主力供應商。

首款自研 CPU:AGI 架構的技術突破

Arm 於 2026 年 3 月下旬推出 AGI CPU,這是公司成立 30 多年來首款量產自研處理器,反映 Arm 從單純 IP 授權擴展至完整硬件產品線。晶片採用台積電 3 納米製程,最多整合 136 個 Neoverse V3 核心,熱設計功耗(TDP)約 300 瓦。設計針對高密度機櫃與 AI 負載強化,支援未來大規模 AI 伺服器部署。

Arm 在發布會指出,AGI CPU 在同等功耗下,單機櫃算力達 x86 架構處理器兩倍以上。公司承諾,AI 資料中心每吉瓦(GW)容量可為客戶節省約 100 億美元(約 780 億港元)資本支出(CAPEX)。產品鎖定「代理式 AI」工作負載,這類系統能自主執行複雜任務,無需持續下達指令。代理式 AI 屬大模型應用下一階段的重點應用方向,亦是 AI 基礎設施投資增長迅速的領域。

訂單與財務預期:150 億美元與 250 億美元雙重目標

Arm 在 2025/26 財年第四季財報與投資者會議表示,AGI CPU 獲客戶積極回應。公司預期到 2031 年,僅 AGI CPU 相關產品即可帶來約 150 億美元(約 1,170 億港元)年營收,成為營收增長主要動力。管理層指出,若合併 IP 授權與硬體產品兩條業務線,Arm 在 2030 年前後總年營收目標達 250 億美元(約 1,950 億港元),相當於現有規模五倍,資料中心業務將成為最大收入來源。

Arm 在 2025/26 財年第四季營收約 14.9 億美元(約 116 億港元),全年營收達 49.2 億美元(約 384 億港元),較前一年增長 22%。授權金(royalty)收入上季創新高,主要來自 v9 架構在高階手機與 AI 伺服器滲透率提升,顯示 AI 相關授權已成為 Arm 增長關鍵動力。

生態與合作夥伴:Meta 領銜,多元生態鏈成型

產品發布時,Arm 將 Meta Platforms 列為 AGI CPU 主要共同開發夥伴,Meta 亦宣布將把 AGI CPU 用於旗下 AI 資料中心大規模部署。多家雲端與 AI 基礎設施公司公開表示支持,包括 OpenAI、Cerebras、Cloudflare 與 SK Telecom。系統端由聯想(Lenovo)、超微(Supermicro)及 ASRock Rack 等廠商提供整機與機櫃解決方案。

這系列合作顯示,Arm 正以「CPU 底層引擎」角色切入 x86 主導的伺服器市場,與 NVIDIA 等 GPU 廠商形成互補關係。Arm 以代理式 AI 為核心應用,致力在 AI 伺服器領域提供更高能效、更密集的 CPU 架構,讓客戶在 GPU 與 CPU 之間靈活調整部署配置。

管理層預期與市場反應

Arm 行政總裁 Rene Haas 在財報會指出,到 2030 年,資料中心與 AI 相關業務將占 Arm 營收最大份額,預期數據中心將於短期內超越傳統手機 IP 授權,成為公司最主要收入來源。Haas 強調這仍是預期目標,但已清楚勾勒 Arm 未來數年的戰略重心與資源分配方向。

AGI CPU 發布後,Arm 股價單日飆升約 16%,後續數月維持強勁走勢,反映市場對新產品線與長期增長前景樂觀。分析師提醒,Arm 能否將逾 20 億美元(約 156 億港元)預期訂單(以 2031 年 AGI 相關收入為基準)轉化為實際出貨,取決於供應鏈成熟度,以及與台積電等代工廠的產能協調能力。

供應鏈與執行風險:訂單與產能的落差

市場對 AGI CPU 規格與預期表現評價正面,Arm 亦承認初期仍需擴充供應鏈與產能,確保穩定交付大量訂單。財報公布後,股價從約 237 美元(約 1,849 港元)反彈至近 250 美元(約 1,950 港元),隨後回調至約 220 美元(約 1,716 港元),顯示投資者看好長期增長,同時對執行與交付風險保持審慎。

Reuters 與 CNBC 等媒體指出,Arm 在 AI 伺服器 CPU 市場的進展,將直接影響 Intel 與 AMD 在 x86 伺服器市場的主導地位,並改變 AI 基礎設施架構格局。未來企業 AI 基礎設施決策,將不再限於「GPU 加上 x86 CPU」單一組合,須在 Arm 架構與 x86 架構之間,綜合評估成本、能效、擴展性與部署彈性,做出更細緻的混合配置選擇。

資料來源:Arm官方新聞室 | 路透社 | CNBC | Arm官方介紹 | Channel NewsAsia

read more
IT 基建資訊保安資訊及通訊科技

Huawei、ZTE 歐盟強制立法移除 關鍵電訊基建去風險化進程加速

華為與中興的展覽展示其在歐盟電訊基建中的角色與風險管理措施.

歐盟近期通過強制立法,期望將中國科技企業 Huawei 與 ZTE 排除於成員國關鍵電訊基建之外。歐洲網絡安全防禦策略出現重大轉向。歐盟委員會於 2026 年 1 月公布《歐盟網絡安全法》修訂草案。按草案要求,各成員國流動網絡營運商須於高風險供應商清單公布後 36 個月內,強制移除相關關鍵組件。業界對此高度關注,歐洲電訊市場供應鏈亦將進入重組與降低依賴階段。

從自願指引到強制法例的戰略轉變

自 2020 年歐盟推出 5G 安全「工具箱」以來,針對 Huawei、ZTE 等供應商的限制多屬指引性質,各國落實進度不一。網絡安全威脅加劇下,歐盟委員會透過今次立法,將「降低風險」策略由建議升格為具法律約束力的強制規定。歐盟技術專員 Henna Virkkunen 表示,新方案期望能加強關鍵資訊及通訊科技供應鏈保護,應對潛在外國干預與間諜活動風險。德國等部分成員國已先行訂立拆除時間表,計劃於 2026 年底前清除 5G 核心網內的中國供應商設備,相關做法正成為歐盟整體的行動方向。

供應鏈重組的產業影響

強制排除政策將對產業帶來顯著影響。獨立電訊顧問 Markus Schneider 指出,強制拆除及更換設備將產生龐大營運成本,對已深度整合中國電訊基建的歐洲中小型營運商構成沉重財政壓力。歐洲本土及非中國供應商則可藉此拓展市場,加速採購體系多元化。中國外交部及相關企業對此表示強烈不滿,認為「高風險」說法缺乏事實根據,帶有政治考量,意圖破壞公平競爭環境。相關做法或會加劇全球科技供應鏈分割,歐洲網絡升級成本亦可能上升,技術更新速度短期內或會放緩。

歐洲電訊政策的演變

歐洲在電訊設備取態上的轉變,反映地緣政治與經濟安全之間的複雜關係。2020 年,法國與瑞典率先採取嚴厲立場,設定時間表限制甚至禁止 Huawei 參與 5G 網絡建設,為後續歐洲一體化限制政策定下方向。其後數年,歐洲議會透過多份評估報告,指出部分成員國在降低風險進程中進度滯後,呼籲建立更具協調性的應對框架。至 2026 年初,這項持續多年的「減少依賴中國」趨勢終於在布魯塞爾轉化為成文法例。歐盟在重塑關鍵基建供應鏈安全方面的立場,已趨向一致。

歐盟今次針對關鍵基建的立法行動,期望能強化網絡安全防護。相關措施對歐洲電訊市場未來競爭格局,以及中歐技術合作關係的影響,將是市場後續關注焦點。依賴現有供應鏈的企業,需於合規要求與營運成本之間取得平衡,這將是未來三年的重要挑戰。

資料來源:cnBeta.COM, 觀察者網, Reuters, Sohu, TechCrunch

 

read more
IT 基建人工智能

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年

Dell Technologies 在 2026 年 4 月 15 日舉行的香港新品發布會上,向企業決策層傳達明確訊號。Dell Technologies 香港及澳⾨區核⼼客⼾銷售團隊總監賴靖中先⽣指出,香港約 60% 企業已採用 AI 軟件,同時企業 IT 採購邏輯亦正改變,預計到 2025 年約 60% 的採購定義將由「工具」導向轉向「結果」導向。香港企業的 AI 佈局已從實驗室走入實際營運,決策層要求 AI 投資能帶來實質業務回報與確定性。

AI 雲端重回本地 回本期縮短 2 至 3 年

要達成實質業務結果,先要解決「數據整合」與「成本控制」問題。Dell Technologies 香港及澳⾨區資訊基礎架構解決⽅案事業部技術專家陸偉德指出,許多企業推動 AI 的最大難處在於數據分散。Dell 提供專為 AI 設計的數據平台,將分散在不同系統、不同地方的結構性與非結構性數據整合,為 AI 應用提供高品質且安全的數據基礎。

數據整合後,算力的部署位置成為影響回報的重要因素。市場上約 60% 企業希望將算力和數據放在本地。陸偉德更生動地形容,高用量 AI 投入生產後,雲端計費如同「跳錶的士」,容易產生龐大開銷。將關鍵負載拉回本地,回本期可縮短至 2 至 3 年,同時滿足金融服務及醫療保健等行業對數據絕對控制權的合規要求,並解決網絡延遲導致的效能樽頸。

管控供應鏈風險與支援大灣區出海戰略

確認架構方向後,大型 IT 專案最怕報價失真與交期延誤。針對市場對硬件短缺的擔憂,賴靖中指出 Dell 擁有全球化的完善機制,不依賴單一國家採購,能在全球調配資源以降低風險,例如最近記憶體加價潮,Dell 亦因此未受太大影響。

對財務與採購部門而言,這種「確定性」確保轉型項目能按預算與時間表推進。

Dell 的全球化佈局能直接支援香港企業的跨域發展。Dell 協助香港專業公司進入內地市場提供顧問服務,同時支援內地企業「出海」走向世界。對於視大灣區為發展核心的香港企業來說,這提供了順暢銜接的跨域 IT 橋樑。

現代數據中心 化解香港空間及人材限制

在基礎架構層面,實現 AI 方案於香港最大阻力,往往是機房空間與冷卻考量。Dell 的策略並非單賣伺服器,而是提供涵蓋伺服器、儲存、網絡及液冷技術的「完整基礎架構解決方案」,協助企業突破傳統數據中心的效能瓶頸,並將算力轉化為節省資源的具體效益:

 

極速上線:

透過預先設計的系統,Dell 協助企業將以往需要數星期的複雜部署,大幅縮短至數小時內完成,提升企業的 Time-to-Market 競爭力。

 

突破空間與電力樽頸:

就香港寸金尺土的環境,Dell 提供配備封閉式冷卻系統的伺服器,如同內置冷氣機,提供即插即用的液冷方案,毋須大幅改建客戶現有的數據中心基礎設施。

 

極致數據縮減:

業界領先的 5:1 數據縮減保證讓五份數據只需一份容量即可儲存,大幅減低物理空間近 80%。配合能實時偵測耗電量與碳足跡的 Power Manager 硬件,有助企業達成 ESG 目標。

 

資安避風港:

為確保網絡抗禦力,Dell 建立資料「避風港」,保留一份安全、乾淨且未被改動過的關鍵數據。遭受攻擊時,企業能即時應對,確保最壞情況下的營運恢復能力。

現代工作場所:2026 終端戰力升級

基礎架構升級,最終必須與員工終端裝置同步。隨著 Windows 10 即將退役,Dell 不僅由專業團隊協助企業無縫過渡至 Windows 11 ,更正式發布 2026 全新商用裝置產品組合,涵蓋滿足多元辦公的 Dell Pro 系列筆記型電腦,以及應對高階精密設計的 Dell Pro Precision 系列流動工作站。

配備 GB10 的 Dell Pro Max 能提供數據中心級別的本地 AI 運算能力,讓開發團隊毋須依賴雲端即可在本地部署語言模型。為免大量新裝置更替成為 IT 部門的夢魘,Dell Technologies 客⼾端解決⽅案事業部產品經理黃顯勝指出 Dell Client Management Console (DDMC) 的重要性。

這套免費系統結合最新 Intel Core Ultra Series 3 處理器,能透過 DDMC 執行 vPro 功能讓管理員即使在設備關機狀態下,亦能進行遠端修復(Out-of-band 帶外管理)。它給予 IT 團隊管理 Endpoint Device 的能力,把管理化繁為簡,減省 IT 管理員的束縛,間接釋放企業內部的寶貴人力。

結語

從打破數據孤島、提供全球供應鏈與大灣區戰略支援,到機房的極速部署與資安避風港,再到桌面端的 Dell Pro Max 與 DDMC 管理平台,Dell Technologies 展示了對客戶「最終業務結果」負責的技術夥伴角色。這波企業 AI 升級潮,考驗誰能以最敏捷速度、最可控風險與資源,將前沿技術轉化為實質營運效益。

read more
IT 基建人工智能企業趨勢微電子業

憑 HBM 晶片單季利潤暴增 470% Samsung 挑戰全球最賺錢企業寶座


憑 HBM 晶片單季利潤暴增 470%   Samsung 挑戰全球最賺錢企業寶座

Samsung 正急速縮短與 Nvidia 的利潤差距。這場由 AI 記憶體需求帶動的超級周期,有望讓這家韓國巨頭在 2027 年首度超越 Nvidia,登上全球營運利潤最高企業的寶座。

根據 KB Securities 分析師預測,Samsung 2026 年全年營運利潤有望達到 327 萬億韓元,2027 年將進一步攀升至 488 萬億韓元,屆時將小幅超越 Nvidia 成為全球營運利潤最高的公司。Samsung 2026 年第一季營運利潤達 57.2 萬億韓元,超越市場預期 42.3%,幾乎等於 2025 年全年總利潤。

記憶體超級周期撐起利潤爆炸

推動 Samsung 利潤狂飆的核心引擎,是一場由 AI 基建觸發的記憶體超級周期。DRAM 合約價格在單一季度內暴漲 39.8%,NAND Flash 更飆升 208.8%,HBM(高頻寬記憶體)、DDR5 等高附加值產品的需求與價格同步走高。路透社報道,Samsung 半導體部門營運利潤按年暴增 470%,創下歷史紀錄,行政總裁 TM Roh 形容當前晶片短缺情況「前所未有」。

Daishin Securities 分析師 Ryu Hyung-keun 指出,主要伺服器客戶正加速規劃伺服器擴建以應對激增的算力需求,將供應鏈穩定性置於價格談判之上,預測 2026 年第一季伺服器 DRAM 價格將按季上漲 40% 至 50%。Meritz Securities 強調,記憶體周期僅走到中途,2027 年的盈利潛力仍有上調空間。Samsung 在 HBM4 出貨方面已搶先競爭對手,成功為 Nvidia 等主要客戶完成資格認證,填補了 2025 年曾在 HBM 市場落後於 SK Hynix 的缺口。

Apple 摺疊屏幕合約鎖定新利潤來源

Samsung 的利潤增長不只依靠記憶體。韓國科技媒體 The Elec 報道,Apple 已與 Samsung 顯示器簽署一份為期三年的摺疊屏幕獨家供應合約,iPhone Fold 所需的摺疊 OLED 面板將由 Samsung 獨家供應,合約期限預計延伸至 2029 至 2030 年。摺疊屏幕 iPhone 的摺痕將控制在僅 0.15mm 的極低水平,這對供應商的技術要求極高,亦直接決定了 Apple 別無選擇,只能依賴 Samsung 多年累積的獨家技術。

AppleInsider 指出,目前市面上其他競爭供應商均不具備相應資質——BOE 的摺疊面板技術仍停留在華為機型的規格水準,而 LG Display 至今尚未涉足智能手機摺疊屏幕的生產。Samsung 顯示器向內部管理層解釋向直接競爭對手 Apple 供應核心零件的合理性時,強調這是「向 Apple 供應關鍵零件」帶來的戰略價值。對 Samsung 而言,這份合約是利潤增量,更是在顯示面板市場構築技術壁壘的戰略棋局。

三星估值窪地折射出的市場機遇

雖然盈利前景強勁,Samsung 與 Nvidia 之間存在一道耐人尋味的估值鴻溝。KB Securities 在報告中指出,Samsung 電子的市值僅為 Nvidia 的 19%,估值吸引力極高。以 2026 年全年展望而言,Nvidia 預期營運利潤約為 357 萬億韓元,Samsung 的 327 萬億韓元與之相差僅約 30 萬億韓元,差距已大幅收窄。

《朝鮮日報》英文版分析補充,Samsung 不只在營運利潤上縮短與 Apple 和 Nvidia 的差距,更在全球營運利潤排名中超越 Alphabet(Google 母公司),躋身全球前四。AI 浪潮的利潤分配邏輯正在改變——除了 Nvidia 這類晶片設計公司收割 AI 紅利,Samsung 作為底層硬件供應商同樣「靜靜地發財」。上游記憶體廠商的定價能力,在 AI 算力需求持續爆發的背景下,或許才剛開始展現其真正威力。

AI 記憶體超級周期尚在半途

Samsung 財務逆轉速度之快令市場驚嘆。2024 年初,Samsung 還因在 HBM 高端市場落後於 SK Hynix 而飽受批評,股價低迷;2025 年下半年,AI 伺服器需求激增,全球記憶體供應開始出現系統性短缺;進入 2026 年第一季,Samsung 半導體部門營運利潤按年暴漲 470%,徹底扭轉局面。路透社 2026 年 1 月報道顯示,Samsung 第四季營運利潤已三倍增長,並預計強勁晶片需求將貫穿全年。

KB Securities 預測邏輯有三:一是全球 AI 算力投資持續擴張帶動 HBM 需求;二是記憶體供應商過去兩年保守擴產造成的結構性供不應求;三是 Samsung 在 HBM4 技術上追趕成功,成功打入 Nvidia 主要供應鏈。Oplexa 分析機構數據顯示,2026 年 Samsung HBM 營收預計按年增長三倍,DRAM 整體均價在季度環比已上漲逾 51%。

全球最賺錢企業的王座之爭

Samsung 若在 2027 年成功超越 Nvidia,將意味著半導體行業從「設計為王」向「製造與材料雙核驅動」深層結構性轉變,也代表韓國半導體業在 AI 時代找到了不同於 TSMC 製造路徑的另一條盈利高速公路。然而,Nvidia 並未坐以待斃——其下一代 Vera Rubin 平台將整合 HBM4 晶片,預計今年稍後量產,這將直接提升 Nvidia 自身的盈利天花板。

對全球科技供應鏈而言,Samsung 同時服務於記憶體、顯示面板和邏輯晶片三大領域的垂直整合優勢,正在 AI 時代被重新定價。真正的問題或許是:這場由 AI 驅動的記憶體超級周期,究竟還有多長的跑道?

 

資料來源:Seoul Economic DailyReutersAppleInsiderSamMobileOplexa

read more
IT 基建人工智能企業趨勢雲端服務

Google 面臨 AI 晶片荒挑戰:傳統巨頭如何應對 AI 原生初創競爭?


Google 面臨 AI 晶片荒挑戰:傳統巨頭如何應對 AI 原生初創競爭?

Google 及 Alphabet 行政總裁 Sundar Pichai 於 4 月 7 日在網上節目《Cheeky Pint》透露公司有逾 1,750 億美元(約港幣 1 兆 3,650 億元)資本支出計劃。短期內受制於晶圓產能與記憶體短缺而未能全速推行。他預計 2027 年將是 AI 改變工作方式轉捩點,並披露太空數據中心及量子運算等長線發展項目。

千億資本仍受困晶片荒

Google 預計 2026 年資本支出高達 1,750 億至 1,850 億美元(約港幣 1 兆 3,650 億至 1 兆 4,430 億元)。即使資金充裕亦未能買到足夠硬件。

Sundar Pichai 指出 Google 算力擴張瓶頸是晶圓開工量(wafer starts)、高頻寬記憶體(HBM)供應限制及基礎設施建設速度。他表示就算出價更高記憶體晶片製造商短期內亦無法大幅擴產。現階段就算想花 4,000 億美元(約港幣 3 兆 1,200 億元)亦無法花出去。Google DeepMind 行政總裁 Demis Hassabis 在 2026 年 2 月接受 CNBC 訪問時指記憶體晶片供應鏈嚴重受限,Google 自家研發 TPU(張量處理器)亦面臨關鍵元件短缺。

Reuters 調查報告指出 SK Hynix 預測全球高階記憶體晶片短缺狀況恐延續至 2027 年底。消費電子產業因產能被 AI 搶佔陷入供應緊張。Sundar Pichai 指美國需要學習中國基建速度。中國在電工及廠房建設配套速度上展現極高執行力。

2027 年將改變工作方式

Sundar Pichai 預計 2027 年 AI 代理工作流(agentic workflow)將擴展至廣泛商業應用。即使是前線人員亦會轉用全新流程完成任務。

The Keyword 研究指出金融服務、法律及市場推廣等行業預計在 2027 年前後引入 AI 代理系統自動化重構流程。長週期代理系統(long-horizon agents)預計屆時進入商業部署階段。

PPC Land 分析補充 Sundar Pichai 未承諾具體產品時間表。Google 已在 AI 模式(AI Mode)引入代理購物工具及通用商業協議(UCP)整合以重構搜尋引擎。企業管理層需盡早制定 AI 工作流轉型策略。

量子運算與太空數據中心

Google 研究網誌披露代號「Project Suncatcher」太空數據中心計劃期望能利用太陽能驅動衛星星座。項目會搭載 TPU 處理器及自由空間光學連接(free-space optical links)構建太空 AI 運算基礎設施。Google 已與衛星數據公司 Planet 達成合作並計劃於 2027 年初發射 2 顆原型衛星測試模型與硬件在太空運行表現。

Google 在 2026 年 2 月 9 日實現「閾值以下量子糾錯」(below-threshold quantum error correction)。增加量子位元數量能降低錯誤率。業界視此為容錯量子運算邁向工程化的一步。Sundar Pichai 曾表示目前量子運算發展階段如同 5 年前人工智能即將高速增長。

Alphabet 旗下 Wing 公司宣布於 2026 年內啟動三藩市灣區住宅配送服務。目前 Wing 已在休士頓、亞特蘭大及達拉斯等城市完成逾 75 萬次配送。Wing 計劃至 2027 年建立超過 270 個與 Walmart 合作無人機配送站。

巨頭面對 AI 初創挑戰

Sundar Pichai 指出近 2 年成立初創企業天然具備「AI 原生」架構優勢。Google 等大型企業需經歷再培訓與組織轉型。

ICONIQ Capital 研究顯示 AI 原生公司成長速度是傳統 SaaS 企業 2 至 3 倍。AI 原生公司達成 3,000 萬美元(約港幣 2 億 3,400 萬元)年度經常性收入(ARR)僅需 20 個月。傳統企業需要 60 個月以上。AI 原生企業從第一天起就以數據為核心架構擁有更快實驗速度與組織敏捷性。

Sundar Pichai 坦承組織轉型需時。Google 目前在數據積累、基礎模型研發及生態系統廣度上仍有優勢。高頻寬記憶體供應預計在 2027 至 2028 年逐步緩解。Google 太空數據中心原型衛星升空測試進度將直接影響未來 AI 算力佈局。

資料來源:財聯社/Futunn · Google Research Blog · Reuters · MarketScreener/Wing

 

read more
IT 基建企業趨勢雲端服務

Uber 引入 AWS Trainium3 晶片 提昇無人駕駛與配對算力


Uber 引入 AWS Trainium3 晶片 提昇無人駕駛與配對算力

Uber 擴大與 AWS 的戰略合作,採用 AWS 自家研發的 Graviton4 處理器及 Trainium3 AI 訓練晶片。新硬件將用作處理全球每日數百萬次行程的即時配對運算,並試行利用龐大行程數據來訓練新一代 AI 模型。

雙方於 2026 年 4 月 7 日公布合作細節。Uber 是全球最大叫車及外賣平台,每月活躍用戶超過 2 億,累積行程紀錄超過 135 億次。系統需要在乘客點擊叫車到司機接單的幾百毫秒內完成運算,極度依賴龐大運算資源。這次升級即時基礎架構和擴展 AI 能力,將直接影響亞太區業務發展,包括計劃年底在香港推出的無人駕駛的士服務。

毫秒級的商業戰場

Uber 的核心業務講求高頻即時資源配對。乘客按下叫車鍵的一刻,後台系統必須在幾百毫秒內篩選司機、計算路線、估計到達時間並釐定價格。任何運算延遲都會直接流失用戶。

為應付龐大運算量,Uber 採用「行程服務區」(Trip Serving Zones)架構,按地理區域劃分全球即時配對工作,分佈到多個計算節點同時處理。今次擴充的重點,是將更多 Trip Serving Zones 轉移到 AWS Graviton4 伺服器運作。Graviton4 是 Amazon 採用 Arm 架構自家研發的第四代伺服器晶片,專為低延遲及高數據吞吐量的雲端工作而設。

Uber 工程副總裁 Kamran Zargahi 強調,對 Uber 的營運規模而言,一毫秒的差異也足以影響全局。AWS 北美區副總裁兼董事總經理 Rich Geraffo 表示,期望能協助 Uber 建立更強大的 AI 能力,處理每日數以億計用戶的叫車與物流需求。

為了追求極致反應速度,Uber 不斷在伺服器架構尋找效能與成本的最佳化方案。Graviton4 剛好取得平衡,比起傳統 x86 伺服器更省電,而且單位算力成本較低。對於 Uber 這類全球營運的平台,提升 1% 效率就等於每年節省數百萬美元(約數千萬港元)成本。

試用 Trainium3 降低 AI 訓練成本

除了升級即時基礎設施,Uber 亦開始試用 AWS Trainium3 晶片訓練部分 AI 模型。這些模型負責分析數十億次行程和外賣紀錄,以決定派單給哪位司機或外賣員、計算預計抵達時間,並向用戶推薦最合適的外賣選項。

Trainium3 採用台積電 3 納米製程生產。對比上一代 Trainium2,新晶片的基礎運算能力、能源效率及記憶體頻寬均提升近 4 倍。配備 Trainium3 的 Trn3 UltraServers 最多可容納 144 張晶片,提供高達 362 petaflops 的 FP8 總算力。AWS 首席晶片架構師 Ron Diamant 向《CNBC》透露,Trainium 的 ASIC 設計比起其他硬件供應商,性價比高出 30% 至 40%。最新版本的 Trainium3 更號稱能將雲端伺服器運行成本降低高達 50%。

Uber 累積了 135 億次歷史行程的龐大資料庫,每日新增的行程亦不斷為 AI 模型提供訓練數據。利用 Trainium3 處理這些封閉可控的訓練工作,毋須擔心如推理部署般面對複雜的 Nvidia CUDA 工具鏈相容性問題,採用其他品牌的晶片阻力較小,直接為 Uber 節省開支。AI 訓練場景順理成章成為 AWS 晶片策略的突破口。

不過目前 Trainium3 的部署仍處於試行階段,Uber 未有將所有 AI 訓練工作轉移至 AWS。早前有報告顯示,部分初創企業測試 Trainium2 時遇到效能不穩和存取受限等問題。考慮到 Uber 的營運規模對服務穩定性要求極高,先作小規模試行是控制風險的合理做法。

分散投資的多雲端策略

Uber 早於 2023 年已跟甲骨文雲端基礎設施(OCI)及 Google Cloud 簽署 7 年協議,放棄自建數據中心並轉用雙雲端架構。今次引入 AWS,反映 Uber 試圖避免被單一供應商綑綁。讓三大雲端服務商互相競爭,有助 Uber 增加議價籌碼,將不同的運算工作分配到性價比最高的平台。

在技術分工上,Uber 將對延遲極敏感的 Trip Serving Zones 轉移至 Graviton4,顯示他們認可 AWS 伺服器的性價比。至於試用 Trainium3,則是為測試 AWS AI 訓練的經濟效益,評估它能否與 OCI 及 Google Cloud 的現有 GPU 資源匹敵。

成功爭取 Uber 這個全球運算需求最嚴苛的即時處理平台成為客戶,對 AWS 而言具有強大的指標作用。這項合作讓 AWS 的自家研發晶片客戶名單,在 Anthropic、OpenAI 及 Apple 以外再添一員猛將。

配合年底香港無人駕駛的士計劃

這次後台架構升級亦直接關乎香港市場的發展。Uber 計劃於 2026 年底在香港推出無人駕駛的士服務,屆時香港將會與馬德里、休斯頓及蘇黎世同步啟動計劃,成為亞洲首個自動駕駛市場。Uber 早在今年 2 月已率先推出香港至澳門的跨境專車預約服務,固定車費已包橋隧費,進一步打通大灣區交通網絡。

管理無人駕駛車隊對 AI 模型的準確度要求極高。系統需要即時處理感應器數據、路況變化及乘客需求。AWS 的硬件升級及 Trainium3 試行計劃,正是為了應付未來更龐大的算力需求。市場調查機構 S&P Global 的汽車報告亦指出,香港已成為 Uber 2026 年亞洲自動駕駛戰略的核心。

這次 Trainium3 的試用結果,將會決定 Uber 未來會否將更多 AI 訓練工作由 Nvidia GPU 轉移至 Amazon 的自家晶片。對於每日使用 Uber 叫車和外賣服務的香港用戶來說,這場雲端晶片大戰的最終贏家是誰並不重要,最實際的影響,是我們的手機應用程式能否做到更快的司機配對、更準確的到達時間預測,以及更貼心的外賣推介。

 

資料來源:Amazon AWS官方新聞室 | The Next Web | TechCrunch | CNBC | S&P Global Automotive Insights

read more
IT 基建人工智能企業趨勢應用方案

DeepSeek V4 正式登場:成本僅 GPT 百分之一 企業 AI 市場大洗牌


DeepSeek V4 正式登場:成本僅 GPT 百分之一 企業 AI 市場大洗牌

DeepSeek V4 於 2026 年 4 月正式推出。定價每百萬 token 僅 0.3 美元(約港幣 2.3 元),比 GPT 旗艦模型平逾 10 倍,亦較 Claude Opus 4.6 便宜約 16 倍。開源 AI 正式進入兆參數時代。這款中國研發的模型加入全新 Engram 條件記憶架構,支援 100 萬 token 超長上下文窗口。編寫程式碼與推理測試成績直逼頂尖閉源模型,各大企業技術主管都要重新考慮 AI 供應商。

兆參數架構 推理成本不升反跌

DeepSeek V4 採用混合專家(MoE)架構,總參數量約達 1 兆。每個 token 推理過程只激活約 32 億個參數,比上一代 V3 的 37 億參數更少。模型規模擴大約 50%,單次推理成本卻不升反跌。V4 採用 Top-16 路由機制,在數百個專家子網絡中每次激活 16 個,平衡運算效率與表達能力。

訓練成本亦是關鍵。上一代 V3 訓練成本約 600 萬美元(約港幣 4,680 萬元),對比 OpenAI 訓練 GPT-4 估計花費逾 1 億美元(約港幣 7.8 億元),差距極大。DeepSeek V4 輸入定價為每百萬 token 0.3 美元(約港幣 2.3 元),輸出定價為 0.5 美元(約港幣 3.9 元)。

AI 開支慳足九成 實測數據見真章

以每月處理 10 億 token 計算,DeepSeek V4 無快取費用約 300 美元(約港幣 2,340 元),啟用快取後更低至 30 美元(約港幣 234 元)。若使用 GPT 旗艦模型執行相同工作量,估計需 2,500 美元(約港幣 19,500 元)。Claude Opus 4.6 標準輸入定價計算則約需 5,000 美元(約港幣 39,000 元)。兩者成本相差 10 至 150 倍。

網上流傳「Claude Opus 4.6 每月 15,000 美元」的說法,其實是混淆了舊版 Claude Opus 4 定價。根據 wavespeed.ai 實測分析,V4 性能有明顯提升,SWE-Bench 分數由 V3 的 69% 升至 81%,但定價只比 V3.2 高約 15%。

基準測試逼近閉源模型 Engram 記憶架構發功

目前流出的 V4 預發布基準測試數據尚未經第三方核實。報告指 SWE-Bench Verified 軟件工程任務得分達 81%,HumanEval+ 程式碼生成約 90%,GPQA Diamond 研究生級科學推理約 88%。Claude Opus 4.6 在 SWE-Bench Verified 錄得 81.42%。兩者表現相近,但每百萬 token 成本相差 16 倍。

背後關鍵在於 Engram 條件記憶架構。官方文件顯示,新架構能在超過 100 萬 token 的超長上下文做到高效檢索。V4 特別適合處理超長文件、程式碼庫分析或跨對話記憶等企業應用。evolink.ai 分析指出,DeepSeek 早於 2026 年 2 月起,已將基礎設施上下文窗口由 128K 擴展至 100 萬 token,早為 V4 生產環境做準備。

採用華為晶片 需考量地緣政治風險

V4 背後的硬件策略涉及地緣政治因素。路透社於 2026 年 4 月 3 日引述 The Information 報道,V4 完全運行於華為最新設計的晶片。DeepSeek 為此直接與華為及中國晶片設計商寒武紀合作,重寫模型底層程式碼。Nvidia 並未獲得 V4 早期測試機會,打破業界慣例。

Alibaba、ByteDance 及 Tencent 等中國科技巨頭已為 V4 採購數十萬台華為最新 Ascend 950PR 晶片。需求激增推動晶片價格上漲約 20%。Reddit 上有開源情報報告指,V4 多次延期,部分原因是華為 Ascend 910B 硬件在早期訓練過程故障,才順延至 2026 年 4 月發布。企業考慮採用 V4 時,要同時評估供應鏈風險與資料合規要求。

開源策略吸引企業自設伺服器

DeepSeek 計劃以 Apache 2.0 授權開源發布 V4 權重。Apache 2.0 允許企業在自家伺服器自行部署,消除依賴 API 的風險。企業亦可按業務需求微調模型,解決資料主權疑慮。金融、醫療、法律等監管嚴格行業對此甚有需求。

隨着 V4 落地,企業技術主管要面對的問題,已由「開源夠不夠用」變成「閉源模型高昂收費是否合理」。根據 particula.tech 市場數據,DeepSeek 與 Qwen 目前合計佔全球 AI 市場約 15% 份額,對比一年前僅有 1%。

成本與風險的角力

DeepSeek V4 打破了市場定價慣例。當成本相差最高 150 倍,繼續盲目選用 GPT 或 Claude 似乎不再是理所當然。然而便宜背後有代價。V4 依賴華為晶片,加上基準測試數據仍未經獨立核實,實際應用表現仍有待觀察。各大企業要享受低成本開源模型帶來的好處,就要先搞清楚如何在法規與地緣政治風險中取得平衡。這不再是單純的技術測試,而是一場真金白銀的商業決策。

資料來源:nxcode.io · reuters

read more
IT 基建企業趨勢業界消息雲端服務

Oracle 宣佈裁員逾 2 萬人 盈利高峰期啟動史上最大規模裁員


Oracle 宣佈裁員逾 2 萬人    盈利高峰期啟動史上最大規模裁員

2026 年 3 月 31 日清晨 6 時,Oracle 全球數萬名員工打開電郵,迎接不是新工作日開始,而是一行冰冷告別:「您的職位即日起取消,今日為最後工作日。」這是科技業於 2026 年迄今規模最大單一企業裁員事件,亦是 Oracle 創立 44 年來最龐大人事縮減。

裁員規模震驚業界並非因為 Oracle 陷入困境。恰恰相反這家公司正處於財務表現最亮眼時刻之一。上一財季淨利按年增加 95%,達 61.3 億美元(約港幣 478.14 億元),未認列合約承諾(RPO)更突破 5,000 億美元(約港幣 3.9 兆元)大關。這並非失敗企業求生之戰,而是押注 AI 基礎建設激進財務佈局。

利潤亮眼背後 現金早已告急

Oracle 強勁財報掩蓋不了資產負債表上日益逼仄財務空間。2026 年 3 月 Oracle 於向美國證券交易委員會(SEC)提交 10-Q 報告中,揭露一項高達 21 億美元(約港幣 163.8 億元)重組計畫。其中絕大多數預算將用於員工遣散費及相關開支,前三個財季已提撥 9.82 億美元(約港幣 76.6 億元),尚有約 11 億美元(約港幣 85.8 億元)待執行。

資金去向早於 2026 年 2 月已昭告天下。Oracle 宣布計畫透過債務與股權融資,於 2026 年全年籌集 450 億至 500 億美元(約港幣 3,510 億至 3,900 億元)。全數用於擴充 Oracle 雲端基礎建設(Oracle Cloud Infrastructure,簡稱 OCI)資料中心容量。客戶名單涵蓋 OpenAI、Meta、NVIDIA、xAI 與 AMD 等 AI 核心玩家。

投資銀行 TD Cowen 分析師 Derrick Wood 於 1 月研究報告直言,縮減 2 萬至 3 萬名員工可為 Oracle 每年釋出 80 億至 100 億美元(約港幣 624 億至 780 億元)自由現金流,為 AI 資本支出提供關鍵緩衝。市場對此仍然存疑。多家美國銀行已相繼提高對 Oracle 特定資料中心專案融資成本,部分機構甚至從某些專案撤出。銀行對 Oracle 能否如期兌現 AI 合約承諾抱持保留態度。

華爾街分歧:買進信號還是警示燈?

裁員消息傳出後,Oracle 股價當日一度反彈近 6% 但隨即回落,折射出市場矛盾心態。今年以來 Oracle 股價累計下跌約 25%,跌幅高居科技大型股之冠,遠超同期大市表現。

Barclays 分析師 Raimo Lenschow 於裁員消息確認後,仍維持 Oracle「增持(Overweight)」評級,但同步將目標股價從 310 美元(約港幣 2,418 元)下調至 230 美元(約港幣 1,794 元),降幅逾 25%。他於研究報告指出市場對這波裁員並不感到意外。重組計畫早有前兆,人事成本削減正是 Oracle 於大規模建設期間維持自由現金流核心操作。

TD Cowen 同樣維持「買進」評級,目標價定於 250 美元(約港幣 1,950 元)。該行預期 Oracle OCI 業務將於 2026 財年第三季以不變匯率計算達約 80% 同比增長,並可能於第四季趨近 100%。Bernstein 分析師則早於 2025 年指出,如此高速成長於這種規模極為罕見,隱含執行風險絕對不可低估。

Stargate:5,000 億美元 AI 賭局

裁員更大背景是 Oracle 深度嵌入美國 AI 基礎建設戰略。2025 年 1 月 Oracle 與 OpenAI 及 SoftBank 共同於白宮宣布成立「Stargate 計畫」,由美國總統川普親自站台。計畫目標於美國境內投資最高 5,000 億美元(約港幣 3.9 兆元)興建 AI 資料中心。Oracle 方面預測旗下 OCI 業務有望於 2026 財年成長 77% 達 180 億美元(約港幣 1,404 億元)規模,並於 2030 財年攀升至 1,440 億美元(約港幣 1.123 兆元)。

Stargate 計畫並非一帆風順。2026 年 3 月據 Reuters 報導,Oracle 與 OpenAI 已悄然擱置德克薩斯州旗艦 AI 資料中心擴建計畫。雙方於融資條件談判陷入僵局,加上 OpenAI 算力需求持續調整引致擴建暫緩。Oracle 隨後公開反駁並強調核心 4.5 吉瓦(GW)容量協議仍完全履行。Abilene 園區兩棟建築已正式投入營運,剩餘建設將按計畫推進。

TD Cowen 估算 Oracle 整體 AI 基礎建設投資承諾已達 1,560 億美元(約港幣 1.216 兆元)。以當前本業現金流遠不足以支撐龐大資本支出計畫,財務槓桿正處於高位。裁員、舉債與股權融資必須同步推進。人力成本是 Oracle 保持投資級債評前提下最直接可控支出變數。

科技裁員新典範:以人換算力

這場裁員揭示 2026 年科技行業愈發清晰營運邏輯:以削減傳統人力換取 AI 基礎建設資本。根據統計 2026 年初截至目前,科技業整體已有逾 45,000 人失業。當中包括 Meta、Atlassian、Amazon 及 Ericsson 等巨頭均於裁員行列。

Oracle 受影響員工分布於美國、印度、加拿大及墨西哥等地。範圍涵蓋 Oracle Health、Sales、Cloud、Customer Success 及 NetSuite 等多個業務單位。印度員工受衝擊尤為嚴重,估計約有 12,000 個職位受到波及,佔全球裁員人數近半。

對於傳統企業軟件及現場部署基礎建設(On-premises infrastructure)領域深耕從業者而言,這波裁員是一個明確訊號。AI 工程師、雲端架構師與資料中心技術人員需求正在激增。傳統維護與銷售職位萎縮同樣亦是長期趨勢。

未來走向:豪賭能否兌現?

Oracle 此次大刀闊斧裁員,本質上是一場以現有人力資源換取未來算力版圖財務置換。若 OCI 如期實現 77% 增長及 Stargate 計畫順利推進,裁員釋出現金流將成為 Oracle 躋身全球 AI 雲端前三重要支撐。一旦融資環境惡化及 AI 合約需求不如預期,高槓桿下財務壓力將形成巨大反噬。

 

資料來源:cnbc.comreuters.cominvesting.comgurufocus.com247wallst.com

read more
IT 基建人工智能企業趨勢低碳綠色

應對 AI 算力爆炸性用電需求 Microsoft 結盟 Chevron 發展天然氣發電


應對 AI 算力爆炸性用電需求 Microsoft 結盟 Chevron 發展天然氣發電

Microsoft、Chevron 及投資基金 Engine No.1 於 2026 年 3 月 31 日宣布簽訂排他性協議。協議探索發電與供電方案,支援 AI 數據中心電力需求。

協議針對美國德州西部一座預算 70 億美元(約 546 億港元)天然氣發電廠。發電廠初期產能達 2,500 兆瓦,主要為大型數據中心園區供電。Microsoft 尋求穩定電力,Chevron 提供天然氣技術,而 Engine No.1 負責投資。有媒體上週公布消息,目前尚未敲定商業細節。ChatGPT 等 AI 應用需求暴增,發電廠將背靠電表直接供電。本文剖析協議核心及產業背景脈絡,協助行政總裁掌握能源轉型商機。

協議鎖定巨型發電廠 滿足 AI 電力飢渴

Microsoft 加速數據中心建置,以應對 Copilot 等生成式 AI 爆炸性需求。他們迫切需要可靠電力來源。Chevron 與 Engine No.1 先前合作,計劃在美國數據中心旁興建天然氣發電廠。發電廠使用 GE Vernova 渦輪機,提供可擴充至 4GW 電力,等同供應 300 萬至 350 萬個美國家庭。是次排他協議聚焦德州西部巨型項目,預計 2027 年前啟用。初期 2,500MW 產能直供 Microsoft 園區以避免電網瓶頸。

Chevron 旗下初創企業將負責開發。此舉除了解決 Microsoft 電力短缺,也利用 Permian 盆地豐富天然氣資源。Bloomberg 報導指出,該廠成本高達 70 億美元(約 546 億港元),屬美國最大規模項目之一,強調規模與速度及可靠性。Microsoft 於香港與新加坡亞洲數據中心已成區域樞紐。是次協議強化全球供應鏈。有媒體透過電話訪問產業人士,確認這是科技巨頭應對 AI 耗能關鍵一步。雙方歷經數月談判及環境評估才達成協議。

專家看好天然氣橋接角色 預測投資回報優異

Chevron 電力解決方案副總裁兼能源專家 Droog 指出,客戶需求龐大,新數據中心規模達 50GW,用電量遠超中型城市。是次協議正加速許可與工程階段。他強調 Chevron 鎖定南部與中西部地點,提供 1GW 容量。設施預計 2027 年至 2028 年運作以解決電網滯後問題。數據顯示美國數據中心電力需求將從 2022 年 17GW 飆升至 2030 年 35GW,當中 AI 佔最大比例。

AI 訓練需要巨量算力,引致嚴重電力缺口。天然氣發電能快速部署,碳排放低於燃煤,成為可再生能源過渡橋樑。Bloomberg 新能源記者 Kevin Crowley 分析指出,Microsoft 鎖定長期客戶身份,有助融資建設,設施預期 2030 年前啟用。Chevron、Microsoft 及 GE Vernova 等企業密切合作,強化協議可信度。相較傳統電網,此模式降低延遲並提升 99.999% 可用性。

環境派轉為支持 平衡轉型與現實需求

前 Exxon 董事兼 Engine No.1 創辦人 Christian Hunt 曾領導 2021 年 Exxon 股東戰以推動低碳轉型。他現時轉為支持天然氣發展,認為這是美國再工業化關鍵投資。他預測結合碳捕捉技術後,排放量可減少一半。數據顯示類似項目效率達 60% 以上。McKinsey 報告指出,雖然 AI 能源效益進步,但 2025 年至 2026 年需求仍會增加 20% 至 40%,至 2032 年更達總電力 7% 至 20%。

AI 熱潮引致電網超載。Microsoft 等大型雲端服務供應商無法依賴不穩定可再生能源。天然氣提供過渡方案,預期 2026 年落實最終投資決定。Microsoft 產品創新經理 Yue Tu 回憶指出,2018 年公用事業低估電力需求,是次協議正好填補空白。雖然香港 Chevron 業務以 2.7 億美元(約 21.06 億港元)售予 Bangchak 並包含 31 個油站,但集團全球策略不變,繼續支援亞太區數據中心。

合作源於 AI 爆發 歷史對比突顯轉折

早在 2024 年底 Chevron 與 Engine No.1 聯手初創企業,瞄準數據中心天然氣解決方案。雙方 2025 年 1 月擴大與 GE Vernova 合作並鎖定 4GW 容量。Chevron 於 2025 年 3 月推進許可階段,並在 CERAWeek 會議透露多站計畫。直至 2026 年 3 月 Microsoft 加入,延續 2019 年與 Chevron 及 Schlumberger 雲端合作傳統。

Engine No.1 於 2021 年贏得 Exxon 董事席位推動能源轉型,至 2024 年合作發電,隨後 2025 年擴大 GW 規模,至今達成排他協議。歷史數據對比顯示,Microsoft 於 2026 年前 AI 運算容量受限,如今增加 80% 令電力需求增倍。香港 Chevron 轉手 Bangchak 後聚焦鑽石山 Caltex 等電動車充電站,反映能源物流轉型。相較 2022 年 17GW,2030 年 35GW 增長超過一倍,突顯天然氣不可或缺。

企業轉型加速 天然氣時代何去何從

是次協議協助 Microsoft 確保 AI 領導地位。Chevron 從銷售燃料轉型售電,而 Engine No.1 將獲高回報。預測 2027 年後擴充 5GW 容量,勢必影響全球數據中心模式。未來趨勢預期混合能源盛行,碳捕捉技術日益普及,香港或會跟進亞太區相關需求。

資料來源:The Hindu BusinessLineBloombergEngine No.1INSIDEReuters

read more
IT 基建人工智能業界消息

中國 AI 晶片技術落後國際 5 到 10 年?拆解設備與人才結構性危機及企業突圍策略


中國 AI 晶片技術落後國際 5 到 10 年?拆解設備與人才結構性危機及企業突圍策略

中國半導體高層出席 SEMICON China 2026 論壇時罕有承認,中國 AI 數據中心晶片與汽車半導體技術整體仍落後國際先進水平約 5 到 10 年。AI 投資熱潮與設備限制正加劇產能及高階人才短缺壓力。

「落後 5 到 10 年」真實含義

重慶芯聯微電子資深副總裁李海明參與 SEMICON China 2026 產業論壇時指出,中國消費性晶片與 28 nm 以上成熟節點已具備相當競爭力。然而車用與 AI 數據中心晶片等高階應用技術水平相對國際領先者落後約 5 到 10 年。此說法並非單指算力或晶片面積,而是涵蓋製程節點與良率及設備水平與設計工具及先進封裝整體技術曲線。特別是 7 nm 及更先進節點量產效率與成本差距最為明顯。

多份國際分析報告指出,中國過去十多年投入數千億美元(約港幣數兆元)佈局晶片自主。美國實施出口管制令中國無法取得 ASML 最新 EUV 與部分先進浸潤式 DUV 設備,引致 SMIC 及華虹等大廠 7 nm 以下節點量產步伐與良率明顯落後 TSMC 及 Samsung 等先進產能。落後 5 到 10 年實際上是估算先進製程與封裝商業化時程差距,意味中國 AI 數據中心與高效能晶片升級步伐未來一段時間將持續受制於設備與製程能效。

設備與被動元件:AI 晶片隱性瓶頸

擴張產能不能直接彌平技術落差,尤其 AI 數據中心晶片建置過程中設備與被動元件成為關鍵制約。ACM Research 行政總裁 David Wang 於論壇指出,AI 浪潮推動晶片性能提升。下一代效能突破將高度依賴更精準沉積與蝕刻及量測等新一代製造設備。中國開發及導入這些工具仍處於相對落後階段。

就光刻設備層面而言,荷蘭與美國加強管制出口 EUV 及部分先進 DUV 設備至中國。這令中國 7 nm 及更先進節點量產必須依賴多層圖形化與高複雜度製程。這做法除了推高生產成本,也拖慢提升良率速度。ITIF 與 TrendForce 等多份報告均指出中國先進邏輯與先進封裝整體進度落後國際領先者約 5 到 10 年。這正是論壇高層提出技術差距真實背景。

同時 AI 數據中心擴張大幅拉高 MLCC 與高頻互連及電源管理 IC 等被動元件需求,引致全球供應鏈出現局部吃緊。Sino IC Leasing 執行副總裁袁以沛指出,建設數據中心步伐加速令 MLCC 等被動元件供應緊張,顯示 AI 伺服器背後小零件同樣成為瓶頸。企業即使成功突破晶片設計框架,若設備與被動元件無法同步升級,AI 數據中心擴張仍會受制於產能爬坡速度與功耗控制。

人才缺口 20 萬:高階半導體戰場結構性壓力

技術與設備限制以外,高階人才短缺是另一道更難突破無形牆。中國半導體產業協會聯同 SunTZU Recruit 發表《2026 年中國半導體人才發展報告》指出,2026 年中國半導體產業人才缺口高達 20 萬人。當中高階技術人才缺口超過 8 萬,主要集中 5 nm 以下製程與先進封裝及高頻互連等領域。協會秘書長陳南翔明確指出,每年約 10 萬名相關學系畢業生當中只有約 3 成能直接勝任企業職位。多數畢業生需接受 1 到 2 年企業再培訓,引致市場出現嚴重供需錯配。

外資大廠擴充中國產能加劇人才爭奪戰。Samsung 西安記憶體廠及 TSMC 南京二期擴建等專案各自新增數千職位,當中高階技術職位比例佔約 4 成。這情況直接推高上海與南京及西安等地先進製程與封裝領域人才薪酬與挖角競爭。本土企業除了在高階設計與設備維護及良率工程師職位陷入搶人困局,也令技術落後 5 到 10 年這說法增添人力結構註解。即使龐大資金與先進設備逐步到位,願意留在中國長期深耕高階半導體工程師仍然供不應求。

地緣政治與市場競爭:企業雙軌策略

設備與人才限制加上地緣政治與國際供應鏈變化,進一步加劇中國半導體與 AI 晶片企業經營壓力。美國管制先進 AI 晶片與高階設備出口,令中國難以直接取得最新 GPU 與 EUV 系統。這情況迫使本土企業加速自主研發替代方案。華為昇騰與寒武紀等 AI 晶片品牌試圖於安防與邊緣計算及雲端推理等垂直應用領域尋找市場。然而投行與多間研究機構指出,中國 AI 模型與應用層面差距已縮小至約 3 個月。先進晶片與算力基礎設施則仍落後美國數年。中國 AI 企業訓練大規模模型時常需依賴舊世代或非原廠改裝晶片,間接嚴重拖慢整體研發節奏。

企業面對各方重重壓力,國際市場策略逐步轉向兩條路線:

向內加深:國內激烈競爭與嚴格設備限制迫使企業強調成熟節點與差異化應用。企業致力於 AIoT 與車用感測器及電源管理 IC 等領域建立成本優勢與規模經濟。企業同時利用 AI 最佳化自家晶圓廠良率與排程,期望能在有限資源中大幅提升產能效益。

向外探路:論壇多位高層代表強調只要提供具價值產品與解決方案,即使地緣政治限制持續仍有機會爭取海外客戶。部分企業已於歐洲地區設立研發中心並調整產品路線圖。他們透過非敏感技術與封裝服務建立國際客戶信任。

企業影響與未來趨勢

企業管理層承認落後 5 到 10 年是重新定價投資策略起點,這情況並非單純危機宣告。設備投資與產能規劃:企業傾向深耕既有節點能力與整體能效比,管理層不再盲目追求最尖端製程。企業同時加快導入 AI 處理良率預測及設備預測性維護等程序,期望藉此有效提高單位產能效益。

人才與組織調整:面對嚴重高階人才缺口,企業更注重員工長期薪酬與內部培訓及校企合作。這做法有助縮短畢業生晉升為可貢獻工程師所需時間,並於關鍵核心技術領域建立穩固團隊。市場與技術定位:實施設備管制前提下,企業可能聚焦成熟節點與工業及車用與 AIoT 等垂直應用。AI 晶片設計強調總體擁有成本與系統能效比,團隊摒棄單純追求峰值算力以建立可持續競爭優勢。

積極展望未來發展方向,若中國成功於先進設備與高階人才培育取得關鍵突破,未來 5 到 10 年內 AI 數據中心晶片與先進製程技術差距有望逐步縮小。這段關鍵期間企業仍需在受限技術前提下,重新定義整體投資優先順序與企業風險管理。企業面臨真正核心問題是設備與人才限制已成常態,管理層如何將落後 5 到 10 年現狀轉化為具體年度技術路線圖與國際市場策略。

資料來源:technews.tw tomshardware.com suntzurecruit.com scmp.com

read more