close

IT 基建

IT 基建中小企雲端專區企業趨勢業界專訪雲端服務

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 12

 

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 13

▲嘉民集團項目管理總監黃達之(左)及中華電力輸電部總監黃偉強早前在將近完工的嘉民荃灣西數據中心園區介紹發展進度。

嘉民集團項目管理總監黃達之(Gary)表示,為配合嘉民集團於全球設置 5000 兆瓦 (MW)數據中心的未來發展策略,嘉民早年收購了荃灣沙咀道一塊舊紡織廠用地 (即前中央紗廠位置),將其轉型為數據中心園區,以滿足香港及亞太地區的數據中心不斷增長的需求。他指出,由於荃灣位處市區核心地帶,亦與工商業及住宅區緊密連接,對於科網以至新興 AI 服務而言,在物理時延 (latency)上亦有優勢。因此規劃發展荃灣西數據中心園區,為香港發展先進數據中心,更有效率配合市場與政策對科網及新興數字經濟發展。

 

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 14

▲黃達之表示,嘉民集團對準香港及亞太地區的數據中心不斷增長的需求,協助各數據商加快部署。

嘉民全球佈局 滿足香港數據中心需求

Gary 表示,嘉民計劃興建四棟數據中心,定位高質量數據中心,並為每座大樓配備獨立的高壓客戶變電站,總建築面積達 160 萬平方尺,主供電設備裝置容量高達 225 兆伏安 (MVA),迎合先進數據中心、資訊科技、通訊及工業行業需要。因此,嘉民在建築規劃之初便與中電接觸,就數據中心的用電需求進行研究和規劃,並參考相關的國際標準及要求,共同探討及開發合適的設計方案,例如建設高壓客戶變電站,並配合緊急發電機和備用發電設施配置等,確保數據中心的電力具高度的穩定和可靠性,同時確保在施工和客戶變電站的交接過程安全順利進行。

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 15

▲嘉民與中電團隊緊密協作,就數據中心的用電需求共同探討合適的設計方案。

地理位置受限   後移建造位置成功破局

不知道大家有否留意,一般置於商廈的中小型客戶配電房多數位於二樓或較高的樓層,方便騰出地方用盡商用空間。但對於需要更大電量的數據中心而言,在他們的大型客戶變電站中,高壓電力裝置的體積和重量皆較為龐大,最大一組電力裝置組件更重達 70 噸。為了配合組件運輸和安裝,以及符合樓面承重限制,組件置於地面更為穩妥安全。沙咀道位於荃灣舊區,周邊街道繁忙且狹窄,項目旁邊更有一條 20 米高架空天橋,大幅增加建設過程的挑戰。因此嘉民的項目團隊向中電「取經」,透過技術研討會和參觀中電的高壓變電站,了解 132 千伏高壓變電站的配置要求,以便在建築設計的前期階段,盡早規劃數據中心園區分階段發展的佈局。

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 16

▲項目旁有一條 20 米高架空天橋 (圖左側),園區建造時需往後移 (圖右),以騰出更多空間便利工程進行。

中華電力輸電部總監黃偉強(Alex)表示,由於與嘉民預早溝通,建築前已發現地理限制,中電遂建議將數據中心園區的建造位置往後移,同時將擺放高壓電力及重型設備的房間設置在地面,既突破原有的場地限制,亦在園區與架空天橋之間騰出了更多空間,有利運送各種高電壓及重型的電力設備,更大幅減低因工程可能會帶來封路的不便。

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 17

▲中電與嘉民團隊調整園區設計以騰出空間,有利運送各種重型的電力設備。

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 18

▲其中一組電力裝置組件重達 70 噸,為配合安裝及符合樓面承重限制,組件置於地面更為穩妥安全。

Alex 亦透露,中電按數據中心園區的電力需求和分階段發展的規劃,為嘉民度身設計短、中期的供電方案,例如 11 千伏的配電網絡作為短期供電安排,滿足園區在運作初期發展所需;又提供專門的備用供電方案等,應付園區在中、後期營運階段的電力需求,令園區可以靈活發展。

聯繫數字辦 加快推進發展先進數據園區

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工 19

▲黃偉強指中電發揮「超級聯繫人」角色,協助嘉民透過數字辦助力與相關政府部門協調,加快園區項目發展。

Alex 補充,中電除了提供技術支援,更協助嘉民聯繫數字政策辦公室 (數字辦)、投資推廣署等,了解在香港發展數據中心的便利措施,同時透過數字辦幫忙與相關政府部門聯繫和協調,有利項目加快發展。

Unwire.pro 翻查新聞資料,其實該數據中心園區在規劃初期,原本預計要至 2026 年才陸續完工,現時園區進度加快,更可在今年內完成,其中一個高壓客戶變電站的電力工程,更比嘉民之前規劃的時間提前半年以上完成,對於世界各地建設先進數據中心經常出現工程延誤的常態而言,也是一項鮮有的佳績。香港數據中心協會主席李松德指:「數據中心對電力需求一般都要經過一段『爬坡期』,電力公司提供不同階段的供電方案,亦有助數據中心發展更具彈性,能夠盡早投運。」

 

 

read more
IT 基建人工智能

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年 20

Dell Technologies 在 2026 年 4 月 15 日舉行的香港新品發布會上,向企業決策層傳達明確訊號。Dell Technologies 香港及澳⾨區核⼼客⼾銷售團隊總監賴靖中先⽣指出,香港約 60% 企業已採用 AI 軟件,同時企業 IT 採購邏輯亦正改變,預計到 2025 年約 60% 的採購定義將由「工具」導向轉向「結果」導向。香港企業的 AI 佈局已從實驗室走入實際營運,決策層要求 AI 投資能帶來實質業務回報與確定性。

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年 21

AI 雲端重回本地 回本期縮短 2 至 3 年

要達成實質業務結果,先要解決「數據整合」與「成本控制」問題。Dell Technologies 香港及澳⾨區資訊基礎架構解決⽅案事業部技術專家陸偉德指出,許多企業推動 AI 的最大難處在於數據分散。Dell 提供專為 AI 設計的數據平台,將分散在不同系統、不同地方的結構性與非結構性數據整合,為 AI 應用提供高品質且安全的數據基礎。

數據整合後,算力的部署位置成為影響回報的重要因素。市場上約 60% 企業希望將算力和數據放在本地。陸偉德更生動地形容,高用量 AI 投入生產後,雲端計費如同「跳錶的士」,容易產生龐大開銷。將關鍵負載拉回本地,回本期可縮短至 2 至 3 年,同時滿足金融服務及醫療保健等行業對數據絕對控制權的合規要求,並解決網絡延遲導致的效能樽頸。

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年 22

管控供應鏈風險與支援大灣區出海戰略

確認架構方向後,大型 IT 專案最怕報價失真與交期延誤。針對市場對硬件短缺的擔憂,賴靖中指出 Dell 擁有全球化的完善機制,不依賴單一國家採購,能在全球調配資源以降低風險,例如最近記憶體加價潮,Dell 亦因此未受太大影響。

對財務與採購部門而言,這種「確定性」確保轉型項目能按預算與時間表推進。

Dell 的全球化佈局能直接支援香港企業的跨域發展。Dell 協助香港專業公司進入內地市場提供顧問服務,同時支援內地企業「出海」走向世界。對於視大灣區為發展核心的香港企業來說,這提供了順暢銜接的跨域 IT 橋樑。

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年 23

現代數據中心 化解香港空間及人材限制

在基礎架構層面,實現 AI 方案於香港最大阻力,往往是機房空間與冷卻考量。Dell 的策略並非單賣伺服器,而是提供涵蓋伺服器、儲存、網絡及液冷技術的「完整基礎架構解決方案」,協助企業突破傳統數據中心的效能瓶頸,並將算力轉化為節省資源的具體效益:

 

極速上線:

透過預先設計的系統,Dell 協助企業將以往需要數星期的複雜部署,大幅縮短至數小時內完成,提升企業的 Time-to-Market 競爭力。

 

突破空間與電力樽頸:

就香港寸金尺土的環境,Dell 提供配備封閉式冷卻系統的伺服器,如同內置冷氣機,提供即插即用的液冷方案,毋須大幅改建客戶現有的數據中心基礎設施。

 

極致數據縮減:

業界領先的 5:1 數據縮減保證讓五份數據只需一份容量即可儲存,大幅減低物理空間近 80%。配合能實時偵測耗電量與碳足跡的 Power Manager 硬件,有助企業達成 ESG 目標。

 

資安避風港:

為確保網絡抗禦力,Dell 建立資料「避風港」,保留一份安全、乾淨且未被改動過的關鍵數據。遭受攻擊時,企業能即時應對,確保最壞情況下的營運恢復能力。

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年 24

現代工作場所:2026 終端戰力升級

基礎架構升級,最終必須與員工終端裝置同步。隨著 Windows 10 即將退役,Dell 不僅由專業團隊協助企業無縫過渡至 Windows 11 ,更正式發布 2026 全新商用裝置產品組合,涵蓋滿足多元辦公的 Dell Pro 系列筆記型電腦,以及應對高階精密設計的 Dell Pro Precision 系列流動工作站。

配備 GB10 的 Dell Pro Max 能提供數據中心級別的本地 AI 運算能力,讓開發團隊毋須依賴雲端即可在本地部署語言模型。為免大量新裝置更替成為 IT 部門的夢魘,Dell Technologies 客⼾端解決⽅案事業部產品經理黃顯勝指出 Dell Client Management Console (DDMC) 的重要性。

這套免費系統結合最新 Intel Core Ultra Series 3 處理器,能透過 DDMC 執行 vPro 功能讓管理員即使在設備關機狀態下,亦能進行遠端修復(Out-of-band 帶外管理)。它給予 IT 團隊管理 Endpoint Device 的能力,把管理化繁為簡,減省 IT 管理員的束縛,間接釋放企業內部的寶貴人力。

Dell 商用 2026 裝置發佈:配合全套解決方案 助企業無痛部署本地 AI 回本期縮短至 2-3 年 25

結語

從打破數據孤島、提供全球供應鏈與大灣區戰略支援,到機房的極速部署與資安避風港,再到桌面端的 Dell Pro Max 與 DDMC 管理平台,Dell Technologies 展示了對客戶「最終業務結果」負責的技術夥伴角色。這波企業 AI 升級潮,考驗誰能以最敏捷速度、最可控風險與資源,將前沿技術轉化為實質營運效益。

read more
IT 基建人工智能企業趨勢微電子業

憑 HBM 晶片單季利潤暴增 470% Samsung 挑戰全球最賺錢企業寶座

憑 HBM 晶片單季利潤暴增 470% Samsung 挑戰全球最賺錢企業寶座 26


憑 HBM 晶片單季利潤暴增 470%   Samsung 挑戰全球最賺錢企業寶座

Samsung 正急速縮短與 Nvidia 的利潤差距。這場由 AI 記憶體需求帶動的超級周期,有望讓這家韓國巨頭在 2027 年首度超越 Nvidia,登上全球營運利潤最高企業的寶座。

根據 KB Securities 分析師預測,Samsung 2026 年全年營運利潤有望達到 327 萬億韓元,2027 年將進一步攀升至 488 萬億韓元,屆時將小幅超越 Nvidia 成為全球營運利潤最高的公司。Samsung 2026 年第一季營運利潤達 57.2 萬億韓元,超越市場預期 42.3%,幾乎等於 2025 年全年總利潤。

記憶體超級周期撐起利潤爆炸

推動 Samsung 利潤狂飆的核心引擎,是一場由 AI 基建觸發的記憶體超級周期。DRAM 合約價格在單一季度內暴漲 39.8%,NAND Flash 更飆升 208.8%,HBM(高頻寬記憶體)、DDR5 等高附加值產品的需求與價格同步走高。路透社報道,Samsung 半導體部門營運利潤按年暴增 470%,創下歷史紀錄,行政總裁 TM Roh 形容當前晶片短缺情況「前所未有」。

Daishin Securities 分析師 Ryu Hyung-keun 指出,主要伺服器客戶正加速規劃伺服器擴建以應對激增的算力需求,將供應鏈穩定性置於價格談判之上,預測 2026 年第一季伺服器 DRAM 價格將按季上漲 40% 至 50%。Meritz Securities 強調,記憶體周期僅走到中途,2027 年的盈利潛力仍有上調空間。Samsung 在 HBM4 出貨方面已搶先競爭對手,成功為 Nvidia 等主要客戶完成資格認證,填補了 2025 年曾在 HBM 市場落後於 SK Hynix 的缺口。

Apple 摺疊屏幕合約鎖定新利潤來源

Samsung 的利潤增長不只依靠記憶體。韓國科技媒體 The Elec 報道,Apple 已與 Samsung 顯示器簽署一份為期三年的摺疊屏幕獨家供應合約,iPhone Fold 所需的摺疊 OLED 面板將由 Samsung 獨家供應,合約期限預計延伸至 2029 至 2030 年。摺疊屏幕 iPhone 的摺痕將控制在僅 0.15mm 的極低水平,這對供應商的技術要求極高,亦直接決定了 Apple 別無選擇,只能依賴 Samsung 多年累積的獨家技術。

AppleInsider 指出,目前市面上其他競爭供應商均不具備相應資質——BOE 的摺疊面板技術仍停留在華為機型的規格水準,而 LG Display 至今尚未涉足智能手機摺疊屏幕的生產。Samsung 顯示器向內部管理層解釋向直接競爭對手 Apple 供應核心零件的合理性時,強調這是「向 Apple 供應關鍵零件」帶來的戰略價值。對 Samsung 而言,這份合約是利潤增量,更是在顯示面板市場構築技術壁壘的戰略棋局。

三星估值窪地折射出的市場機遇

雖然盈利前景強勁,Samsung 與 Nvidia 之間存在一道耐人尋味的估值鴻溝。KB Securities 在報告中指出,Samsung 電子的市值僅為 Nvidia 的 19%,估值吸引力極高。以 2026 年全年展望而言,Nvidia 預期營運利潤約為 357 萬億韓元,Samsung 的 327 萬億韓元與之相差僅約 30 萬億韓元,差距已大幅收窄。

《朝鮮日報》英文版分析補充,Samsung 不只在營運利潤上縮短與 Apple 和 Nvidia 的差距,更在全球營運利潤排名中超越 Alphabet(Google 母公司),躋身全球前四。AI 浪潮的利潤分配邏輯正在改變——除了 Nvidia 這類晶片設計公司收割 AI 紅利,Samsung 作為底層硬件供應商同樣「靜靜地發財」。上游記憶體廠商的定價能力,在 AI 算力需求持續爆發的背景下,或許才剛開始展現其真正威力。

AI 記憶體超級周期尚在半途

Samsung 財務逆轉速度之快令市場驚嘆。2024 年初,Samsung 還因在 HBM 高端市場落後於 SK Hynix 而飽受批評,股價低迷;2025 年下半年,AI 伺服器需求激增,全球記憶體供應開始出現系統性短缺;進入 2026 年第一季,Samsung 半導體部門營運利潤按年暴漲 470%,徹底扭轉局面。路透社 2026 年 1 月報道顯示,Samsung 第四季營運利潤已三倍增長,並預計強勁晶片需求將貫穿全年。

KB Securities 預測邏輯有三:一是全球 AI 算力投資持續擴張帶動 HBM 需求;二是記憶體供應商過去兩年保守擴產造成的結構性供不應求;三是 Samsung 在 HBM4 技術上追趕成功,成功打入 Nvidia 主要供應鏈。Oplexa 分析機構數據顯示,2026 年 Samsung HBM 營收預計按年增長三倍,DRAM 整體均價在季度環比已上漲逾 51%。

全球最賺錢企業的王座之爭

Samsung 若在 2027 年成功超越 Nvidia,將意味著半導體行業從「設計為王」向「製造與材料雙核驅動」深層結構性轉變,也代表韓國半導體業在 AI 時代找到了不同於 TSMC 製造路徑的另一條盈利高速公路。然而,Nvidia 並未坐以待斃——其下一代 Vera Rubin 平台將整合 HBM4 晶片,預計今年稍後量產,這將直接提升 Nvidia 自身的盈利天花板。

對全球科技供應鏈而言,Samsung 同時服務於記憶體、顯示面板和邏輯晶片三大領域的垂直整合優勢,正在 AI 時代被重新定價。真正的問題或許是:這場由 AI 驅動的記憶體超級周期,究竟還有多長的跑道?

 

資料來源:Seoul Economic DailyReutersAppleInsiderSamMobileOplexa

read more
IT 基建人工智能企業趨勢雲端服務

Google 面臨 AI 晶片荒挑戰:傳統巨頭如何應對 AI 原生初創競爭?

Google 面臨 AI 晶片荒挑戰:傳統巨頭如何應對 AI 原生初創競爭? 27


Google 面臨 AI 晶片荒挑戰:傳統巨頭如何應對 AI 原生初創競爭?

Google 及 Alphabet 行政總裁 Sundar Pichai 於 4 月 7 日在網上節目《Cheeky Pint》透露公司有逾 1,750 億美元(約港幣 1 兆 3,650 億元)資本支出計劃。短期內受制於晶圓產能與記憶體短缺而未能全速推行。他預計 2027 年將是 AI 改變工作方式轉捩點,並披露太空數據中心及量子運算等長線發展項目。

千億資本仍受困晶片荒

Google 預計 2026 年資本支出高達 1,750 億至 1,850 億美元(約港幣 1 兆 3,650 億至 1 兆 4,430 億元)。即使資金充裕亦未能買到足夠硬件。

Sundar Pichai 指出 Google 算力擴張瓶頸是晶圓開工量(wafer starts)、高頻寬記憶體(HBM)供應限制及基礎設施建設速度。他表示就算出價更高記憶體晶片製造商短期內亦無法大幅擴產。現階段就算想花 4,000 億美元(約港幣 3 兆 1,200 億元)亦無法花出去。Google DeepMind 行政總裁 Demis Hassabis 在 2026 年 2 月接受 CNBC 訪問時指記憶體晶片供應鏈嚴重受限,Google 自家研發 TPU(張量處理器)亦面臨關鍵元件短缺。

Reuters 調查報告指出 SK Hynix 預測全球高階記憶體晶片短缺狀況恐延續至 2027 年底。消費電子產業因產能被 AI 搶佔陷入供應緊張。Sundar Pichai 指美國需要學習中國基建速度。中國在電工及廠房建設配套速度上展現極高執行力。

2027 年將改變工作方式

Sundar Pichai 預計 2027 年 AI 代理工作流(agentic workflow)將擴展至廣泛商業應用。即使是前線人員亦會轉用全新流程完成任務。

The Keyword 研究指出金融服務、法律及市場推廣等行業預計在 2027 年前後引入 AI 代理系統自動化重構流程。長週期代理系統(long-horizon agents)預計屆時進入商業部署階段。

PPC Land 分析補充 Sundar Pichai 未承諾具體產品時間表。Google 已在 AI 模式(AI Mode)引入代理購物工具及通用商業協議(UCP)整合以重構搜尋引擎。企業管理層需盡早制定 AI 工作流轉型策略。

量子運算與太空數據中心

Google 研究網誌披露代號「Project Suncatcher」太空數據中心計劃期望能利用太陽能驅動衛星星座。項目會搭載 TPU 處理器及自由空間光學連接(free-space optical links)構建太空 AI 運算基礎設施。Google 已與衛星數據公司 Planet 達成合作並計劃於 2027 年初發射 2 顆原型衛星測試模型與硬件在太空運行表現。

Google 在 2026 年 2 月 9 日實現「閾值以下量子糾錯」(below-threshold quantum error correction)。增加量子位元數量能降低錯誤率。業界視此為容錯量子運算邁向工程化的一步。Sundar Pichai 曾表示目前量子運算發展階段如同 5 年前人工智能即將高速增長。

Alphabet 旗下 Wing 公司宣布於 2026 年內啟動三藩市灣區住宅配送服務。目前 Wing 已在休士頓、亞特蘭大及達拉斯等城市完成逾 75 萬次配送。Wing 計劃至 2027 年建立超過 270 個與 Walmart 合作無人機配送站。

巨頭面對 AI 初創挑戰

Sundar Pichai 指出近 2 年成立初創企業天然具備「AI 原生」架構優勢。Google 等大型企業需經歷再培訓與組織轉型。

ICONIQ Capital 研究顯示 AI 原生公司成長速度是傳統 SaaS 企業 2 至 3 倍。AI 原生公司達成 3,000 萬美元(約港幣 2 億 3,400 萬元)年度經常性收入(ARR)僅需 20 個月。傳統企業需要 60 個月以上。AI 原生企業從第一天起就以數據為核心架構擁有更快實驗速度與組織敏捷性。

Sundar Pichai 坦承組織轉型需時。Google 目前在數據積累、基礎模型研發及生態系統廣度上仍有優勢。高頻寬記憶體供應預計在 2027 至 2028 年逐步緩解。Google 太空數據中心原型衛星升空測試進度將直接影響未來 AI 算力佈局。

資料來源:財聯社/Futunn · Google Research Blog · Reuters · MarketScreener/Wing

 

read more
IT 基建企業趨勢雲端服務

Uber 引入 AWS Trainium3 晶片 提昇無人駕駛與配對算力

Uber 引入 AWS Trainium3 晶片 提昇無人駕駛與配對算力 28


Uber 引入 AWS Trainium3 晶片 提昇無人駕駛與配對算力

Uber 擴大與 AWS 的戰略合作,採用 AWS 自家研發的 Graviton4 處理器及 Trainium3 AI 訓練晶片。新硬件將用作處理全球每日數百萬次行程的即時配對運算,並試行利用龐大行程數據來訓練新一代 AI 模型。

雙方於 2026 年 4 月 7 日公布合作細節。Uber 是全球最大叫車及外賣平台,每月活躍用戶超過 2 億,累積行程紀錄超過 135 億次。系統需要在乘客點擊叫車到司機接單的幾百毫秒內完成運算,極度依賴龐大運算資源。這次升級即時基礎架構和擴展 AI 能力,將直接影響亞太區業務發展,包括計劃年底在香港推出的無人駕駛的士服務。

毫秒級的商業戰場

Uber 的核心業務講求高頻即時資源配對。乘客按下叫車鍵的一刻,後台系統必須在幾百毫秒內篩選司機、計算路線、估計到達時間並釐定價格。任何運算延遲都會直接流失用戶。

為應付龐大運算量,Uber 採用「行程服務區」(Trip Serving Zones)架構,按地理區域劃分全球即時配對工作,分佈到多個計算節點同時處理。今次擴充的重點,是將更多 Trip Serving Zones 轉移到 AWS Graviton4 伺服器運作。Graviton4 是 Amazon 採用 Arm 架構自家研發的第四代伺服器晶片,專為低延遲及高數據吞吐量的雲端工作而設。

Uber 工程副總裁 Kamran Zargahi 強調,對 Uber 的營運規模而言,一毫秒的差異也足以影響全局。AWS 北美區副總裁兼董事總經理 Rich Geraffo 表示,期望能協助 Uber 建立更強大的 AI 能力,處理每日數以億計用戶的叫車與物流需求。

為了追求極致反應速度,Uber 不斷在伺服器架構尋找效能與成本的最佳化方案。Graviton4 剛好取得平衡,比起傳統 x86 伺服器更省電,而且單位算力成本較低。對於 Uber 這類全球營運的平台,提升 1% 效率就等於每年節省數百萬美元(約數千萬港元)成本。

試用 Trainium3 降低 AI 訓練成本

除了升級即時基礎設施,Uber 亦開始試用 AWS Trainium3 晶片訓練部分 AI 模型。這些模型負責分析數十億次行程和外賣紀錄,以決定派單給哪位司機或外賣員、計算預計抵達時間,並向用戶推薦最合適的外賣選項。

Trainium3 採用台積電 3 納米製程生產。對比上一代 Trainium2,新晶片的基礎運算能力、能源效率及記憶體頻寬均提升近 4 倍。配備 Trainium3 的 Trn3 UltraServers 最多可容納 144 張晶片,提供高達 362 petaflops 的 FP8 總算力。AWS 首席晶片架構師 Ron Diamant 向《CNBC》透露,Trainium 的 ASIC 設計比起其他硬件供應商,性價比高出 30% 至 40%。最新版本的 Trainium3 更號稱能將雲端伺服器運行成本降低高達 50%。

Uber 累積了 135 億次歷史行程的龐大資料庫,每日新增的行程亦不斷為 AI 模型提供訓練數據。利用 Trainium3 處理這些封閉可控的訓練工作,毋須擔心如推理部署般面對複雜的 Nvidia CUDA 工具鏈相容性問題,採用其他品牌的晶片阻力較小,直接為 Uber 節省開支。AI 訓練場景順理成章成為 AWS 晶片策略的突破口。

不過目前 Trainium3 的部署仍處於試行階段,Uber 未有將所有 AI 訓練工作轉移至 AWS。早前有報告顯示,部分初創企業測試 Trainium2 時遇到效能不穩和存取受限等問題。考慮到 Uber 的營運規模對服務穩定性要求極高,先作小規模試行是控制風險的合理做法。

分散投資的多雲端策略

Uber 早於 2023 年已跟甲骨文雲端基礎設施(OCI)及 Google Cloud 簽署 7 年協議,放棄自建數據中心並轉用雙雲端架構。今次引入 AWS,反映 Uber 試圖避免被單一供應商綑綁。讓三大雲端服務商互相競爭,有助 Uber 增加議價籌碼,將不同的運算工作分配到性價比最高的平台。

在技術分工上,Uber 將對延遲極敏感的 Trip Serving Zones 轉移至 Graviton4,顯示他們認可 AWS 伺服器的性價比。至於試用 Trainium3,則是為測試 AWS AI 訓練的經濟效益,評估它能否與 OCI 及 Google Cloud 的現有 GPU 資源匹敵。

成功爭取 Uber 這個全球運算需求最嚴苛的即時處理平台成為客戶,對 AWS 而言具有強大的指標作用。這項合作讓 AWS 的自家研發晶片客戶名單,在 Anthropic、OpenAI 及 Apple 以外再添一員猛將。

配合年底香港無人駕駛的士計劃

這次後台架構升級亦直接關乎香港市場的發展。Uber 計劃於 2026 年底在香港推出無人駕駛的士服務,屆時香港將會與馬德里、休斯頓及蘇黎世同步啟動計劃,成為亞洲首個自動駕駛市場。Uber 早在今年 2 月已率先推出香港至澳門的跨境專車預約服務,固定車費已包橋隧費,進一步打通大灣區交通網絡。

管理無人駕駛車隊對 AI 模型的準確度要求極高。系統需要即時處理感應器數據、路況變化及乘客需求。AWS 的硬件升級及 Trainium3 試行計劃,正是為了應付未來更龐大的算力需求。市場調查機構 S&P Global 的汽車報告亦指出,香港已成為 Uber 2026 年亞洲自動駕駛戰略的核心。

這次 Trainium3 的試用結果,將會決定 Uber 未來會否將更多 AI 訓練工作由 Nvidia GPU 轉移至 Amazon 的自家晶片。對於每日使用 Uber 叫車和外賣服務的香港用戶來說,這場雲端晶片大戰的最終贏家是誰並不重要,最實際的影響,是我們的手機應用程式能否做到更快的司機配對、更準確的到達時間預測,以及更貼心的外賣推介。

 

資料來源:Amazon AWS官方新聞室 | The Next Web | TechCrunch | CNBC | S&P Global Automotive Insights

read more
IT 基建人工智能企業趨勢應用方案

DeepSeek V4 正式登場:成本僅 GPT 百分之一 企業 AI 市場大洗牌

DeepSeek V4 正式登場:成本僅 GPT 百分之一 企業 AI 市場大洗牌 29


DeepSeek V4 正式登場:成本僅 GPT 百分之一 企業 AI 市場大洗牌

DeepSeek V4 於 2026 年 4 月正式推出。定價每百萬 token 僅 0.3 美元(約港幣 2.3 元),比 GPT 旗艦模型平逾 10 倍,亦較 Claude Opus 4.6 便宜約 16 倍。開源 AI 正式進入兆參數時代。這款中國研發的模型加入全新 Engram 條件記憶架構,支援 100 萬 token 超長上下文窗口。編寫程式碼與推理測試成績直逼頂尖閉源模型,各大企業技術主管都要重新考慮 AI 供應商。

兆參數架構 推理成本不升反跌

DeepSeek V4 採用混合專家(MoE)架構,總參數量約達 1 兆。每個 token 推理過程只激活約 32 億個參數,比上一代 V3 的 37 億參數更少。模型規模擴大約 50%,單次推理成本卻不升反跌。V4 採用 Top-16 路由機制,在數百個專家子網絡中每次激活 16 個,平衡運算效率與表達能力。

訓練成本亦是關鍵。上一代 V3 訓練成本約 600 萬美元(約港幣 4,680 萬元),對比 OpenAI 訓練 GPT-4 估計花費逾 1 億美元(約港幣 7.8 億元),差距極大。DeepSeek V4 輸入定價為每百萬 token 0.3 美元(約港幣 2.3 元),輸出定價為 0.5 美元(約港幣 3.9 元)。

AI 開支慳足九成 實測數據見真章

以每月處理 10 億 token 計算,DeepSeek V4 無快取費用約 300 美元(約港幣 2,340 元),啟用快取後更低至 30 美元(約港幣 234 元)。若使用 GPT 旗艦模型執行相同工作量,估計需 2,500 美元(約港幣 19,500 元)。Claude Opus 4.6 標準輸入定價計算則約需 5,000 美元(約港幣 39,000 元)。兩者成本相差 10 至 150 倍。

網上流傳「Claude Opus 4.6 每月 15,000 美元」的說法,其實是混淆了舊版 Claude Opus 4 定價。根據 wavespeed.ai 實測分析,V4 性能有明顯提升,SWE-Bench 分數由 V3 的 69% 升至 81%,但定價只比 V3.2 高約 15%。

基準測試逼近閉源模型 Engram 記憶架構發功

目前流出的 V4 預發布基準測試數據尚未經第三方核實。報告指 SWE-Bench Verified 軟件工程任務得分達 81%,HumanEval+ 程式碼生成約 90%,GPQA Diamond 研究生級科學推理約 88%。Claude Opus 4.6 在 SWE-Bench Verified 錄得 81.42%。兩者表現相近,但每百萬 token 成本相差 16 倍。

背後關鍵在於 Engram 條件記憶架構。官方文件顯示,新架構能在超過 100 萬 token 的超長上下文做到高效檢索。V4 特別適合處理超長文件、程式碼庫分析或跨對話記憶等企業應用。evolink.ai 分析指出,DeepSeek 早於 2026 年 2 月起,已將基礎設施上下文窗口由 128K 擴展至 100 萬 token,早為 V4 生產環境做準備。

採用華為晶片 需考量地緣政治風險

V4 背後的硬件策略涉及地緣政治因素。路透社於 2026 年 4 月 3 日引述 The Information 報道,V4 完全運行於華為最新設計的晶片。DeepSeek 為此直接與華為及中國晶片設計商寒武紀合作,重寫模型底層程式碼。Nvidia 並未獲得 V4 早期測試機會,打破業界慣例。

Alibaba、ByteDance 及 Tencent 等中國科技巨頭已為 V4 採購數十萬台華為最新 Ascend 950PR 晶片。需求激增推動晶片價格上漲約 20%。Reddit 上有開源情報報告指,V4 多次延期,部分原因是華為 Ascend 910B 硬件在早期訓練過程故障,才順延至 2026 年 4 月發布。企業考慮採用 V4 時,要同時評估供應鏈風險與資料合規要求。

開源策略吸引企業自設伺服器

DeepSeek 計劃以 Apache 2.0 授權開源發布 V4 權重。Apache 2.0 允許企業在自家伺服器自行部署,消除依賴 API 的風險。企業亦可按業務需求微調模型,解決資料主權疑慮。金融、醫療、法律等監管嚴格行業對此甚有需求。

隨着 V4 落地,企業技術主管要面對的問題,已由「開源夠不夠用」變成「閉源模型高昂收費是否合理」。根據 particula.tech 市場數據,DeepSeek 與 Qwen 目前合計佔全球 AI 市場約 15% 份額,對比一年前僅有 1%。

成本與風險的角力

DeepSeek V4 打破了市場定價慣例。當成本相差最高 150 倍,繼續盲目選用 GPT 或 Claude 似乎不再是理所當然。然而便宜背後有代價。V4 依賴華為晶片,加上基準測試數據仍未經獨立核實,實際應用表現仍有待觀察。各大企業要享受低成本開源模型帶來的好處,就要先搞清楚如何在法規與地緣政治風險中取得平衡。這不再是單純的技術測試,而是一場真金白銀的商業決策。

資料來源:nxcode.io · reuters

read more
IT 基建企業趨勢業界消息雲端服務

Oracle 宣佈裁員逾 2 萬人 盈利高峰期啟動史上最大規模裁員

Oracle 宣佈裁員逾 2 萬人 盈利高峰期啟動史上最大規模裁員 30


Oracle 宣佈裁員逾 2 萬人    盈利高峰期啟動史上最大規模裁員

2026 年 3 月 31 日清晨 6 時,Oracle 全球數萬名員工打開電郵,迎接不是新工作日開始,而是一行冰冷告別:「您的職位即日起取消,今日為最後工作日。」這是科技業於 2026 年迄今規模最大單一企業裁員事件,亦是 Oracle 創立 44 年來最龐大人事縮減。

裁員規模震驚業界並非因為 Oracle 陷入困境。恰恰相反這家公司正處於財務表現最亮眼時刻之一。上一財季淨利按年增加 95%,達 61.3 億美元(約港幣 478.14 億元),未認列合約承諾(RPO)更突破 5,000 億美元(約港幣 3.9 兆元)大關。這並非失敗企業求生之戰,而是押注 AI 基礎建設激進財務佈局。

利潤亮眼背後 現金早已告急

Oracle 強勁財報掩蓋不了資產負債表上日益逼仄財務空間。2026 年 3 月 Oracle 於向美國證券交易委員會(SEC)提交 10-Q 報告中,揭露一項高達 21 億美元(約港幣 163.8 億元)重組計畫。其中絕大多數預算將用於員工遣散費及相關開支,前三個財季已提撥 9.82 億美元(約港幣 76.6 億元),尚有約 11 億美元(約港幣 85.8 億元)待執行。

資金去向早於 2026 年 2 月已昭告天下。Oracle 宣布計畫透過債務與股權融資,於 2026 年全年籌集 450 億至 500 億美元(約港幣 3,510 億至 3,900 億元)。全數用於擴充 Oracle 雲端基礎建設(Oracle Cloud Infrastructure,簡稱 OCI)資料中心容量。客戶名單涵蓋 OpenAI、Meta、NVIDIA、xAI 與 AMD 等 AI 核心玩家。

投資銀行 TD Cowen 分析師 Derrick Wood 於 1 月研究報告直言,縮減 2 萬至 3 萬名員工可為 Oracle 每年釋出 80 億至 100 億美元(約港幣 624 億至 780 億元)自由現金流,為 AI 資本支出提供關鍵緩衝。市場對此仍然存疑。多家美國銀行已相繼提高對 Oracle 特定資料中心專案融資成本,部分機構甚至從某些專案撤出。銀行對 Oracle 能否如期兌現 AI 合約承諾抱持保留態度。

華爾街分歧:買進信號還是警示燈?

裁員消息傳出後,Oracle 股價當日一度反彈近 6% 但隨即回落,折射出市場矛盾心態。今年以來 Oracle 股價累計下跌約 25%,跌幅高居科技大型股之冠,遠超同期大市表現。

Barclays 分析師 Raimo Lenschow 於裁員消息確認後,仍維持 Oracle「增持(Overweight)」評級,但同步將目標股價從 310 美元(約港幣 2,418 元)下調至 230 美元(約港幣 1,794 元),降幅逾 25%。他於研究報告指出市場對這波裁員並不感到意外。重組計畫早有前兆,人事成本削減正是 Oracle 於大規模建設期間維持自由現金流核心操作。

TD Cowen 同樣維持「買進」評級,目標價定於 250 美元(約港幣 1,950 元)。該行預期 Oracle OCI 業務將於 2026 財年第三季以不變匯率計算達約 80% 同比增長,並可能於第四季趨近 100%。Bernstein 分析師則早於 2025 年指出,如此高速成長於這種規模極為罕見,隱含執行風險絕對不可低估。

Stargate:5,000 億美元 AI 賭局

裁員更大背景是 Oracle 深度嵌入美國 AI 基礎建設戰略。2025 年 1 月 Oracle 與 OpenAI 及 SoftBank 共同於白宮宣布成立「Stargate 計畫」,由美國總統川普親自站台。計畫目標於美國境內投資最高 5,000 億美元(約港幣 3.9 兆元)興建 AI 資料中心。Oracle 方面預測旗下 OCI 業務有望於 2026 財年成長 77% 達 180 億美元(約港幣 1,404 億元)規模,並於 2030 財年攀升至 1,440 億美元(約港幣 1.123 兆元)。

Stargate 計畫並非一帆風順。2026 年 3 月據 Reuters 報導,Oracle 與 OpenAI 已悄然擱置德克薩斯州旗艦 AI 資料中心擴建計畫。雙方於融資條件談判陷入僵局,加上 OpenAI 算力需求持續調整引致擴建暫緩。Oracle 隨後公開反駁並強調核心 4.5 吉瓦(GW)容量協議仍完全履行。Abilene 園區兩棟建築已正式投入營運,剩餘建設將按計畫推進。

TD Cowen 估算 Oracle 整體 AI 基礎建設投資承諾已達 1,560 億美元(約港幣 1.216 兆元)。以當前本業現金流遠不足以支撐龐大資本支出計畫,財務槓桿正處於高位。裁員、舉債與股權融資必須同步推進。人力成本是 Oracle 保持投資級債評前提下最直接可控支出變數。

科技裁員新典範:以人換算力

這場裁員揭示 2026 年科技行業愈發清晰營運邏輯:以削減傳統人力換取 AI 基礎建設資本。根據統計 2026 年初截至目前,科技業整體已有逾 45,000 人失業。當中包括 Meta、Atlassian、Amazon 及 Ericsson 等巨頭均於裁員行列。

Oracle 受影響員工分布於美國、印度、加拿大及墨西哥等地。範圍涵蓋 Oracle Health、Sales、Cloud、Customer Success 及 NetSuite 等多個業務單位。印度員工受衝擊尤為嚴重,估計約有 12,000 個職位受到波及,佔全球裁員人數近半。

對於傳統企業軟件及現場部署基礎建設(On-premises infrastructure)領域深耕從業者而言,這波裁員是一個明確訊號。AI 工程師、雲端架構師與資料中心技術人員需求正在激增。傳統維護與銷售職位萎縮同樣亦是長期趨勢。

未來走向:豪賭能否兌現?

Oracle 此次大刀闊斧裁員,本質上是一場以現有人力資源換取未來算力版圖財務置換。若 OCI 如期實現 77% 增長及 Stargate 計畫順利推進,裁員釋出現金流將成為 Oracle 躋身全球 AI 雲端前三重要支撐。一旦融資環境惡化及 AI 合約需求不如預期,高槓桿下財務壓力將形成巨大反噬。

 

資料來源:cnbc.comreuters.cominvesting.comgurufocus.com247wallst.com

read more
IT 基建人工智能企業趨勢低碳綠色

應對 AI 算力爆炸性用電需求 Microsoft 結盟 Chevron 發展天然氣發電

應對 AI 算力爆炸性用電需求 Microsoft 結盟 Chevron 發展天然氣發電 31


應對 AI 算力爆炸性用電需求 Microsoft 結盟 Chevron 發展天然氣發電

Microsoft、Chevron 及投資基金 Engine No.1 於 2026 年 3 月 31 日宣布簽訂排他性協議。協議探索發電與供電方案,支援 AI 數據中心電力需求。

協議針對美國德州西部一座預算 70 億美元(約 546 億港元)天然氣發電廠。發電廠初期產能達 2,500 兆瓦,主要為大型數據中心園區供電。Microsoft 尋求穩定電力,Chevron 提供天然氣技術,而 Engine No.1 負責投資。有媒體上週公布消息,目前尚未敲定商業細節。ChatGPT 等 AI 應用需求暴增,發電廠將背靠電表直接供電。本文剖析協議核心及產業背景脈絡,協助行政總裁掌握能源轉型商機。

協議鎖定巨型發電廠 滿足 AI 電力飢渴

Microsoft 加速數據中心建置,以應對 Copilot 等生成式 AI 爆炸性需求。他們迫切需要可靠電力來源。Chevron 與 Engine No.1 先前合作,計劃在美國數據中心旁興建天然氣發電廠。發電廠使用 GE Vernova 渦輪機,提供可擴充至 4GW 電力,等同供應 300 萬至 350 萬個美國家庭。是次排他協議聚焦德州西部巨型項目,預計 2027 年前啟用。初期 2,500MW 產能直供 Microsoft 園區以避免電網瓶頸。

Chevron 旗下初創企業將負責開發。此舉除了解決 Microsoft 電力短缺,也利用 Permian 盆地豐富天然氣資源。Bloomberg 報導指出,該廠成本高達 70 億美元(約 546 億港元),屬美國最大規模項目之一,強調規模與速度及可靠性。Microsoft 於香港與新加坡亞洲數據中心已成區域樞紐。是次協議強化全球供應鏈。有媒體透過電話訪問產業人士,確認這是科技巨頭應對 AI 耗能關鍵一步。雙方歷經數月談判及環境評估才達成協議。

專家看好天然氣橋接角色 預測投資回報優異

Chevron 電力解決方案副總裁兼能源專家 Droog 指出,客戶需求龐大,新數據中心規模達 50GW,用電量遠超中型城市。是次協議正加速許可與工程階段。他強調 Chevron 鎖定南部與中西部地點,提供 1GW 容量。設施預計 2027 年至 2028 年運作以解決電網滯後問題。數據顯示美國數據中心電力需求將從 2022 年 17GW 飆升至 2030 年 35GW,當中 AI 佔最大比例。

AI 訓練需要巨量算力,引致嚴重電力缺口。天然氣發電能快速部署,碳排放低於燃煤,成為可再生能源過渡橋樑。Bloomberg 新能源記者 Kevin Crowley 分析指出,Microsoft 鎖定長期客戶身份,有助融資建設,設施預期 2030 年前啟用。Chevron、Microsoft 及 GE Vernova 等企業密切合作,強化協議可信度。相較傳統電網,此模式降低延遲並提升 99.999% 可用性。

環境派轉為支持 平衡轉型與現實需求

前 Exxon 董事兼 Engine No.1 創辦人 Christian Hunt 曾領導 2021 年 Exxon 股東戰以推動低碳轉型。他現時轉為支持天然氣發展,認為這是美國再工業化關鍵投資。他預測結合碳捕捉技術後,排放量可減少一半。數據顯示類似項目效率達 60% 以上。McKinsey 報告指出,雖然 AI 能源效益進步,但 2025 年至 2026 年需求仍會增加 20% 至 40%,至 2032 年更達總電力 7% 至 20%。

AI 熱潮引致電網超載。Microsoft 等大型雲端服務供應商無法依賴不穩定可再生能源。天然氣提供過渡方案,預期 2026 年落實最終投資決定。Microsoft 產品創新經理 Yue Tu 回憶指出,2018 年公用事業低估電力需求,是次協議正好填補空白。雖然香港 Chevron 業務以 2.7 億美元(約 21.06 億港元)售予 Bangchak 並包含 31 個油站,但集團全球策略不變,繼續支援亞太區數據中心。

合作源於 AI 爆發 歷史對比突顯轉折

早在 2024 年底 Chevron 與 Engine No.1 聯手初創企業,瞄準數據中心天然氣解決方案。雙方 2025 年 1 月擴大與 GE Vernova 合作並鎖定 4GW 容量。Chevron 於 2025 年 3 月推進許可階段,並在 CERAWeek 會議透露多站計畫。直至 2026 年 3 月 Microsoft 加入,延續 2019 年與 Chevron 及 Schlumberger 雲端合作傳統。

Engine No.1 於 2021 年贏得 Exxon 董事席位推動能源轉型,至 2024 年合作發電,隨後 2025 年擴大 GW 規模,至今達成排他協議。歷史數據對比顯示,Microsoft 於 2026 年前 AI 運算容量受限,如今增加 80% 令電力需求增倍。香港 Chevron 轉手 Bangchak 後聚焦鑽石山 Caltex 等電動車充電站,反映能源物流轉型。相較 2022 年 17GW,2030 年 35GW 增長超過一倍,突顯天然氣不可或缺。

企業轉型加速 天然氣時代何去何從

是次協議協助 Microsoft 確保 AI 領導地位。Chevron 從銷售燃料轉型售電,而 Engine No.1 將獲高回報。預測 2027 年後擴充 5GW 容量,勢必影響全球數據中心模式。未來趨勢預期混合能源盛行,碳捕捉技術日益普及,香港或會跟進亞太區相關需求。

資料來源:The Hindu BusinessLineBloombergEngine No.1INSIDEReuters

read more
IT 基建人工智能業界消息

中國 AI 晶片技術落後國際 5 到 10 年?拆解設備與人才結構性危機及企業突圍策略

中國 AI 晶片技術落後國際 5 到 10 年?拆解設備與人才結構性危機及企業突圍策略 32


中國 AI 晶片技術落後國際 5 到 10 年?拆解設備與人才結構性危機及企業突圍策略

中國半導體高層出席 SEMICON China 2026 論壇時罕有承認,中國 AI 數據中心晶片與汽車半導體技術整體仍落後國際先進水平約 5 到 10 年。AI 投資熱潮與設備限制正加劇產能及高階人才短缺壓力。

「落後 5 到 10 年」真實含義

重慶芯聯微電子資深副總裁李海明參與 SEMICON China 2026 產業論壇時指出,中國消費性晶片與 28 nm 以上成熟節點已具備相當競爭力。然而車用與 AI 數據中心晶片等高階應用技術水平相對國際領先者落後約 5 到 10 年。此說法並非單指算力或晶片面積,而是涵蓋製程節點與良率及設備水平與設計工具及先進封裝整體技術曲線。特別是 7 nm 及更先進節點量產效率與成本差距最為明顯。

多份國際分析報告指出,中國過去十多年投入數千億美元(約港幣數兆元)佈局晶片自主。美國實施出口管制令中國無法取得 ASML 最新 EUV 與部分先進浸潤式 DUV 設備,引致 SMIC 及華虹等大廠 7 nm 以下節點量產步伐與良率明顯落後 TSMC 及 Samsung 等先進產能。落後 5 到 10 年實際上是估算先進製程與封裝商業化時程差距,意味中國 AI 數據中心與高效能晶片升級步伐未來一段時間將持續受制於設備與製程能效。

設備與被動元件:AI 晶片隱性瓶頸

擴張產能不能直接彌平技術落差,尤其 AI 數據中心晶片建置過程中設備與被動元件成為關鍵制約。ACM Research 行政總裁 David Wang 於論壇指出,AI 浪潮推動晶片性能提升。下一代效能突破將高度依賴更精準沉積與蝕刻及量測等新一代製造設備。中國開發及導入這些工具仍處於相對落後階段。

就光刻設備層面而言,荷蘭與美國加強管制出口 EUV 及部分先進 DUV 設備至中國。這令中國 7 nm 及更先進節點量產必須依賴多層圖形化與高複雜度製程。這做法除了推高生產成本,也拖慢提升良率速度。ITIF 與 TrendForce 等多份報告均指出中國先進邏輯與先進封裝整體進度落後國際領先者約 5 到 10 年。這正是論壇高層提出技術差距真實背景。

同時 AI 數據中心擴張大幅拉高 MLCC 與高頻互連及電源管理 IC 等被動元件需求,引致全球供應鏈出現局部吃緊。Sino IC Leasing 執行副總裁袁以沛指出,建設數據中心步伐加速令 MLCC 等被動元件供應緊張,顯示 AI 伺服器背後小零件同樣成為瓶頸。企業即使成功突破晶片設計框架,若設備與被動元件無法同步升級,AI 數據中心擴張仍會受制於產能爬坡速度與功耗控制。

人才缺口 20 萬:高階半導體戰場結構性壓力

技術與設備限制以外,高階人才短缺是另一道更難突破無形牆。中國半導體產業協會聯同 SunTZU Recruit 發表《2026 年中國半導體人才發展報告》指出,2026 年中國半導體產業人才缺口高達 20 萬人。當中高階技術人才缺口超過 8 萬,主要集中 5 nm 以下製程與先進封裝及高頻互連等領域。協會秘書長陳南翔明確指出,每年約 10 萬名相關學系畢業生當中只有約 3 成能直接勝任企業職位。多數畢業生需接受 1 到 2 年企業再培訓,引致市場出現嚴重供需錯配。

外資大廠擴充中國產能加劇人才爭奪戰。Samsung 西安記憶體廠及 TSMC 南京二期擴建等專案各自新增數千職位,當中高階技術職位比例佔約 4 成。這情況直接推高上海與南京及西安等地先進製程與封裝領域人才薪酬與挖角競爭。本土企業除了在高階設計與設備維護及良率工程師職位陷入搶人困局,也令技術落後 5 到 10 年這說法增添人力結構註解。即使龐大資金與先進設備逐步到位,願意留在中國長期深耕高階半導體工程師仍然供不應求。

地緣政治與市場競爭:企業雙軌策略

設備與人才限制加上地緣政治與國際供應鏈變化,進一步加劇中國半導體與 AI 晶片企業經營壓力。美國管制先進 AI 晶片與高階設備出口,令中國難以直接取得最新 GPU 與 EUV 系統。這情況迫使本土企業加速自主研發替代方案。華為昇騰與寒武紀等 AI 晶片品牌試圖於安防與邊緣計算及雲端推理等垂直應用領域尋找市場。然而投行與多間研究機構指出,中國 AI 模型與應用層面差距已縮小至約 3 個月。先進晶片與算力基礎設施則仍落後美國數年。中國 AI 企業訓練大規模模型時常需依賴舊世代或非原廠改裝晶片,間接嚴重拖慢整體研發節奏。

企業面對各方重重壓力,國際市場策略逐步轉向兩條路線:

向內加深:國內激烈競爭與嚴格設備限制迫使企業強調成熟節點與差異化應用。企業致力於 AIoT 與車用感測器及電源管理 IC 等領域建立成本優勢與規模經濟。企業同時利用 AI 最佳化自家晶圓廠良率與排程,期望能在有限資源中大幅提升產能效益。

向外探路:論壇多位高層代表強調只要提供具價值產品與解決方案,即使地緣政治限制持續仍有機會爭取海外客戶。部分企業已於歐洲地區設立研發中心並調整產品路線圖。他們透過非敏感技術與封裝服務建立國際客戶信任。

企業影響與未來趨勢

企業管理層承認落後 5 到 10 年是重新定價投資策略起點,這情況並非單純危機宣告。設備投資與產能規劃:企業傾向深耕既有節點能力與整體能效比,管理層不再盲目追求最尖端製程。企業同時加快導入 AI 處理良率預測及設備預測性維護等程序,期望藉此有效提高單位產能效益。

人才與組織調整:面對嚴重高階人才缺口,企業更注重員工長期薪酬與內部培訓及校企合作。這做法有助縮短畢業生晉升為可貢獻工程師所需時間,並於關鍵核心技術領域建立穩固團隊。市場與技術定位:實施設備管制前提下,企業可能聚焦成熟節點與工業及車用與 AIoT 等垂直應用。AI 晶片設計強調總體擁有成本與系統能效比,團隊摒棄單純追求峰值算力以建立可持續競爭優勢。

積極展望未來發展方向,若中國成功於先進設備與高階人才培育取得關鍵突破,未來 5 到 10 年內 AI 數據中心晶片與先進製程技術差距有望逐步縮小。這段關鍵期間企業仍需在受限技術前提下,重新定義整體投資優先順序與企業風險管理。企業面臨真正核心問題是設備與人才限制已成常態,管理層如何將落後 5 到 10 年現狀轉化為具體年度技術路線圖與國際市場策略。

資料來源:technews.tw tomshardware.com suntzurecruit.com scmp.com

read more
IT 基建最新產品業界消息

Samsung 落實 1 納米晶片量產路線圖 叉狀片技術挑戰 TSMC 霸主地位

Samsung 落實 1 納米晶片量產路線圖 叉狀片技術挑戰 TSMC 霸主地位 33


Samsung 落實 1 納米晶片量產路線圖  叉狀片技術挑戰 TSMC 霸主地位

Samsung 晶圓代工部門正式確立 1 納米製程路線圖,計劃於 2030 年完成研發並於 2031 年啟動量產,將採用「叉狀片(Forksheet)」全新電晶體結構突破物理極限。這是 Samsung 自 2019 年宣示 2030 年成為系統半導體第一願景以來,技術藍圖最具里程碑意義的一頁,更是與全球晶圓代工霸主 TSMC 在次世代半導體市場正面對決核心武器。

夢想製程正式落實:1 納米路線圖出爐

韓國經濟日報獨家報道指出,Samsung 晶圓代工部門已制定明確量產計畫,預計 2030 年完成 1 納米製程研發,緊接於 2031 年正式量產。這款被業界稱為夢想半導體製程的 1 納米晶片,元件寬度約等同 5 顆原子排列寬度,技術難度呈指數級跳躍。

與 Samsung 現行最先進 2 納米技術相比,1 納米晶片元件寬度縮減一半,代表晶片在同等面積下能容納更多運算單元,大幅提升效能密度。Samsung 選擇在競爭白熱化當下主動公開 1 納米時間表,業界分析人士解讀為向 TSMC 宣示同台競技資格戰略表態。值得關注是 TSMC 同樣規劃於 2030 年後在 1 納米製程導入叉狀片技術,意味雙方將在同一時間內展開技術正面交鋒。

叉狀片技術:超越 GAA 下一道門檻

若說環繞閘極(GAA)技術是 Samsung 從 3 納米走向 2 納米革命性突破,叉狀片(Forksheet)技術則是通往 1 納米必經之路。GAA 技術將電流流動路徑從傳統 3 個面增至 4 個面以最大化電力效率;叉狀片技術則是 GAA 進階演化版,核心概念是將 GAA 元件之間距離壓縮至物理極限。

具體而言,叉狀片結構創新之處在於相鄰 GAA 元件之間建立一道不導電絕緣牆。這道隔離牆讓工程師能在不增加晶片面積前提下大幅提升電晶體密度,從而在相同空間內配置更多運算元件,最終實現效能與空間利用率雙重飛躍。根據 Samsung 近期申請專利資料顯示,高效能叉狀片電晶體在相同佔地面積下,驅動電流可比現有叉狀片節點提升約 31%,面積縮放效益亦達約 17%,顯示 Samsung 在叉狀片技術已有相當研究積累。

龍頭差距仍達 10 倍 2 納米良率逆轉成關鍵

Samsung 宣示 1 納米遠景同時,現實市場差距依然觸目驚心。市場研究機構 TrendForce 最新數據顯示,TSMC 在 2025 年全球晶圓代工市場佔有率高達 69.9%,而 Samsung 僅佔 7.2%。雙方市場佔有率差距已從 2024 年 55 個百分點,進一步擴大至 62.7 個百分點。以年營收計算,Samsung 晶圓代工部門規模與 TSMC 之間仍存在約 10 倍巨大差距。

然而局勢在 2026 年出現令市場振奮轉折訊號。韓國經濟日報報道指出,Samsung 2 納米製程最高良率已突破 60% 大關,相較 2025 年下半年僅約 20% 良率,短短兩個季度內實現逾 3 倍飛躍式增長。相比之下 TSMC 同製程良率目前約為 60% 至 70%,Samsung 正快速收窄差距。知名 Apple 分析師郭明錤指出,Tesla 預計於 2027 年量產 AI6 晶片,正是採用 Samsung 2 納米 SF2 製程,足見主要科技客戶對 Samsung 製程能力信心正在回升。

7 年追趕史:從 EUV 先行者到 GAA 開路者

Samsung 在先進製程領域追趕腳步,可從過去 7 年技術里程碑清楚看出其戰略意圖。Samsung 於 2019 年率先全球導入 7 納米極紫外光(EUV)微影製程成為業界先行者;2022 年 Samsung 再度搶先,成為全球首家在 3 納米製程導入 GAA 元件技術晶圓代工廠,領先 TSMC 布局次世代電晶體架構。

雖然技術領先並不必然轉化為商業勝利。Samsung 3 納米製程雖則率先引入 GAA,但因良率問題引致大客戶流失,市場佔有率反而持續下滑。業界人士分析指出,短期營收和生產規模超越 TSMC 仍不現實,但在技術創新競爭層面,Samsung 始終保持激烈角力態勢。Samsung 今次明確設定 1 納米路線圖,象徵意義在於展示技術實力對等,而非單純量產爭奪。同時亦同步加速 2 納米特製製程布局,包括專為 Tesla AI6 晶片設計的「SF2T」製程(計劃 2027 年起於美國德州泰勒市廠房投產)、預計 2026 年啟用的「SF2P」製程,以及 2027 年投入的「SF2P+」製程。

2026 年轉虧為盈:1 納米夢想現實支柱

對於 Samsung 晶圓代工部門而言,宏觀 1 納米願景需要扎實短期財務支撐。在 2 納米良率突破 60% 利好消息帶動下,市場對 Samsung 晶圓代工部門在 2026 年實現轉虧為盈寄予厚望。目前該部門正為 Canaan Technology、MicroBT 等加密貨幣礦機晶片客戶,以及自家系統 LSI 事業部 Exynos 2600 應用處理器提供穩定量產服務,其中 Exynos 2600 良率也已超過 50%。

隨著 2 納米製程生產效率持續提升,Samsung 晶圓代工商業吸引力正逐步恢復。1 納米遠期路線圖對潛在高階客戶而言是強而有力技術背書,有助 Samsung 在與 TSMC 客戶爭奪戰中建立差異化競爭優勢。5 年後當 1 納米晶片量產競賽正式揭幕,Samsung 能否憑藉叉狀片技術實現真正技術對等,乃至首次在先進製程時間表上與 TSMC 並駕齊驅?此問題答案將決定全球半導體版圖能否迎來一場歷史性重新洗牌。

資料來源:世界日報SamMobileWccfTech朝鮮日報英文版TrendForce/Design Reuse

read more
IT 基建企業趨勢應用方案

破解東京 AI 算力樽頸:東急電鐵首創高架橋下模組化數據中心

破解東京 AI 算力樽頸:東急電鐵首創高架橋下模組化數據中心 34


破解東京 AI 算力樽頸:東急電鐵首創高架橋下模組化數據中心

東急電鐵聯合三家集團企業宣布將於 2026 年 6 月在大井町線高架橋下部署模組化數據中心,正式啟動全球首個鐵路高架下城市型數據中心實證實驗,以驗證伺服器設施在列車振動與溫度劇變環境下的可行性。

這項由東急株式會社、東急電鐵、東急建設及 Its Communications 四方聯合推進的計劃被業界視為破解東京土地短缺與電力瓶頸的創新路徑,亦是日本數碼基礎設施建設從「中心化」轉向「分散式」的重要里程碑。

列車之下伺服器能否存活?

這場實驗技術核心落在一個看似不起眼的問題上:當每日數十列東急電車從頭頂呼嘯而過,底下的伺服器機櫃能否正常運行?東急集團選定大井町線高架下方安裝一套容器規格的模組化小型數據中心,將伺服器、冷卻系統與電源裝置一體封裝,無需建造獨立建築即可落實部署。

根據 PR Times 公告,實驗團隊將重點評估四項指標:機殼隔音性能、隔熱效果、防震能力及散熱效率。當中防震測試尤為關鍵,電車行駛時產生機械振動屬寬頻段衝擊,與地震或建築施工不同,其頻率具規律性,但累積效應對硬碟讀寫頭、PCB 焊點及機架結構均構成長期威脅。科技媒體 Tom’s Hardware 技術編輯 Luke James 在報導指出,模組化封裝設計令設施可在複雜城市微環境中快速複製部署,正是傳統磚瓦建築數據中心無法實現的靈活性。

Its Communications 早已沿東急沿線鋪設大容量光纖骨幹網絡,高架下數據中心無需額外挖溝引纜即可直接連接既有基礎設施,大幅降低網絡連接成本與施工週期。若這次實驗成功,東急集團計劃將此模式推廣至澀谷等核心沿線站點,逐步建構沿鐵路廊道分佈邊緣運算節點網絡。

破解東京 AI 算力樽頸:東急電鐵首創高架橋下模組化數據中心 35

東京數據中心「260 億美元矛盾」

這次實驗更深層背景是東京數據中心市場陷入「需求爆炸、供給受困」結構性矛盾。AWS 承諾投入 152.4 億美元(約港幣 1,188.72 億元)、Oracle 投入 80 億美元(約港幣 624 億元)、Microsoft 投入 29 億美元(約港幣 226.2 億元),三大美國超大規模業者合計逾 260 億美元(約港幣 2,028 億元)資本已鎖定日本 AI 基礎設施。然而在東京市中心,新設施等待電網連接時間卻長達 5 至 10 年。

NTT 全球數據中心執行副總裁兼日本及亞太區董事總經理鈴木康雄(Yasuo Suzuki)在 2025 年 9 月接受 Data Center Knowledge 採訪時直言:「在東京最密集區域,光是等待電力連接就可能需要 5 到 10 年。」這句話精準揭示日本數碼基礎設施核心矛盾:資金充裕但土地與電力雙雙告急。

根據 Mordor Intelligence 數據,東京土地價格在 2024 年飆升 69%,全市目前擁有 132 座營運中數據中心及至少 18 座在建場地。日本數據中心市場規模預計從 2025 年 127.6 億美元(約港幣 995.28 億元)增至 2031 年 389.1 億美元(約港幣 3,034.98 億元),複合年增長率高達 20.42%。當中 AI 最佳化型數據中心增速最快,預測期間複合增長率達 26.14%,遠超整體市場速度。面對這壓力,分散式邊緣部署模型正如東急這次實驗探索方向,成為釋放城市閒置空間突圍選項。

破解東京 AI 算力樽頸:東急電鐵首創高架橋下模組化數據中心 36

電力供應之困催生分散式革命

日本電力危機並非短期波動而是結構性難題。根據 Wood Mackenzie 分析,日本數據中心電力消耗將從 2024 年 19 TWh 急增至 2034 年 57 至 66 TWh,屆時數據中心將驅動日本整體電力需求增長 60%。為此東京電力(TEPCO)及大阪地區電力公司計劃自 2026 年起投入逾 1,500 億日圓(約港幣 75 億元),用於升級大阪 4 座變電站及擴建東京 66 千伏電網。

在這背景下,高架橋下模組化數據中心具備一項隱性優勢:可直接接駁鐵路沿線既有電力供應線路,繞開排隊多年的電網連接申請程序。同時亦因日本政府計劃於 2026 年 4 月實施新版數據中心能效規範,要求 PUE(電力使用效率)不得超過 1.4,進一步促使業界採納高效冷卻與分散式部署方案。

同時日本政府已規劃在富山縣南礪市建設 3.1 吉瓦容量的超大型數據中心集群,列為亞洲規模最大單一選址開發項目,以緩解東京集中式部署壓力。日本經濟產業省與總務省均明確表態,對數據中心產業發展給予全力支援。

城市空間再造:高架橋第二次生命

回顧日本都市空間利用歷史脈絡,高架橋下商業化早有先例。自 1960 年代起,東京各線高架橋下陸續出現餐廳、便利店及健身房等商業設施,形成獨特「高架下經濟帶」。東急這次將這邏輯延伸至數碼基礎設施領域,本質上是對城市存量空間作高密度再利用。

從技術演進時間軸來看,模組化數據中心概念在 2015 年前後隨邊緣運算興起而普及,最初應用於工廠及港口等工業場景。2020 年後隨 5G 部署加速,超低延遲需求推動邊緣節點向更貼近終端用戶位置滲透。東急這次實驗代表這趨勢向極致城市密集環境延伸嘗試,其技術可行性一旦獲驗證,將為全球大城市鐵路網絡提供可複製數碼基礎設施「插件」方案。

值得關注的是,目前東京至大阪傳統數據中心走廊集中日本約 85% 算力資源。分散式鐵路沿線節點建立有助緩解這高度集中所帶來的單點故障風險,為生成式 AI、IoT 及 5G 低延遲服務提供更具韌性的基礎設施底座。

挑戰城市算力邊界下一步

東急集團高架橋下數據中心實驗,折射出更宏觀命題:在土地稀缺及電力緊張的超大城市,算力基礎設施邊界究竟在哪裡?若 2026 年 6 月啟動實驗順利驗證防震、隔熱、散熱等關鍵指標,東急有望在澀谷等核心地帶複製推廣,催生以鐵路網絡為骨幹的新型分散式數碼城市架構,從而提升沿線區域附加值。

這模式對香港及新加坡等高密度亞洲城市同樣具借鑑意義,當傳統數據中心選址空間日益逼仄,鐵路基礎設施「第二層價值」或將成為新一輪 AI 算力競賽隱藏籌碼。隨著 AI 與 IoT 應用對低延遲算力需求持續攀升,未來數據中心或許就藏在你每天乘坐的列車之下。

 

資料來源:DoNewsTom’s HardwareIntrol BlogYahoo Finance

read more