close

IT 基建

IT 基建中小企雲端專區企業趨勢業界專訪雲端服務

嘉民荃灣西數據中心年內落成 多方協調電力工程加快竣工

 

▲嘉民集團項目管理總監黃達之(左)及中華電力輸電部總監黃偉強早前在將近完工的嘉民荃灣西數據中心園區介紹發展進度。

嘉民集團項目管理總監黃達之(Gary)表示,為配合嘉民集團於全球設置 5000 兆瓦 (MW)數據中心的未來發展策略,嘉民早年收購了荃灣沙咀道一塊舊紡織廠用地 (即前中央紗廠位置),將其轉型為數據中心園區,以滿足香港及亞太地區的數據中心不斷增長的需求。他指出,由於荃灣位處市區核心地帶,亦與工商業及住宅區緊密連接,對於科網以至新興 AI 服務而言,在物理時延 (latency)上亦有優勢。因此規劃發展荃灣西數據中心園區,為香港發展先進數據中心,更有效率配合市場與政策對科網及新興數字經濟發展。

 

▲黃達之表示,嘉民集團對準香港及亞太地區的數據中心不斷增長的需求,協助各數據商加快部署。

嘉民全球佈局 滿足香港數據中心需求

Gary 表示,嘉民計劃興建四棟數據中心,定位高質量數據中心,並為每座大樓配備獨立的高壓客戶變電站,總建築面積達 160 萬平方尺,主供電設備裝置容量高達 225 兆伏安 (MVA),迎合先進數據中心、資訊科技、通訊及工業行業需要。因此,嘉民在建築規劃之初便與中電接觸,就數據中心的用電需求進行研究和規劃,並參考相關的國際標準及要求,共同探討及開發合適的設計方案,例如建設高壓客戶變電站,並配合緊急發電機和備用發電設施配置等,確保數據中心的電力具高度的穩定和可靠性,同時確保在施工和客戶變電站的交接過程安全順利進行。

▲嘉民與中電團隊緊密協作,就數據中心的用電需求共同探討合適的設計方案。

地理位置受限   後移建造位置成功破局

不知道大家有否留意,一般置於商廈的中小型客戶配電房多數位於二樓或較高的樓層,方便騰出地方用盡商用空間。但對於需要更大電量的數據中心而言,在他們的大型客戶變電站中,高壓電力裝置的體積和重量皆較為龐大,最大一組電力裝置組件更重達 70 噸。為了配合組件運輸和安裝,以及符合樓面承重限制,組件置於地面更為穩妥安全。沙咀道位於荃灣舊區,周邊街道繁忙且狹窄,項目旁邊更有一條 20 米高架空天橋,大幅增加建設過程的挑戰。因此嘉民的項目團隊向中電「取經」,透過技術研討會和參觀中電的高壓變電站,了解 132 千伏高壓變電站的配置要求,以便在建築設計的前期階段,盡早規劃數據中心園區分階段發展的佈局。

▲項目旁有一條 20 米高架空天橋 (圖左側),園區建造時需往後移 (圖右),以騰出更多空間便利工程進行。

中華電力輸電部總監黃偉強(Alex)表示,由於與嘉民預早溝通,建築前已發現地理限制,中電遂建議將數據中心園區的建造位置往後移,同時將擺放高壓電力及重型設備的房間設置在地面,既突破原有的場地限制,亦在園區與架空天橋之間騰出了更多空間,有利運送各種高電壓及重型的電力設備,更大幅減低因工程可能會帶來封路的不便。

▲中電與嘉民團隊調整園區設計以騰出空間,有利運送各種重型的電力設備。

▲其中一組電力裝置組件重達 70 噸,為配合安裝及符合樓面承重限制,組件置於地面更為穩妥安全。

Alex 亦透露,中電按數據中心園區的電力需求和分階段發展的規劃,為嘉民度身設計短、中期的供電方案,例如 11 千伏的配電網絡作為短期供電安排,滿足園區在運作初期發展所需;又提供專門的備用供電方案等,應付園區在中、後期營運階段的電力需求,令園區可以靈活發展。

聯繫數字辦 加快推進發展先進數據園區

▲黃偉強指中電發揮「超級聯繫人」角色,協助嘉民透過數字辦助力與相關政府部門協調,加快園區項目發展。

Alex 補充,中電除了提供技術支援,更協助嘉民聯繫數字政策辦公室 (數字辦)、投資推廣署等,了解在香港發展數據中心的便利措施,同時透過數字辦幫忙與相關政府部門聯繫和協調,有利項目加快發展。

Unwire.pro 翻查新聞資料,其實該數據中心園區在規劃初期,原本預計要至 2026 年才陸續完工,現時園區進度加快,更可在今年內完成,其中一個高壓客戶變電站的電力工程,更比嘉民之前規劃的時間提前半年以上完成,對於世界各地建設先進數據中心經常出現工程延誤的常態而言,也是一項鮮有的佳績。香港數據中心協會主席李松德指:「數據中心對電力需求一般都要經過一段『爬坡期』,電力公司提供不同階段的供電方案,亦有助數據中心發展更具彈性,能夠盡早投運。」

 

 

read more
IT 基建人工智能企業趨勢

防 AI 晶片走私中國 美國擬立法強制 Nvidia 等巨頭監管硬件去向


防 AI 晶片走私中國 美國擬立法強制 Nvidia 等巨頭監管硬件去向

美國眾議院外交事務委員會於 2026 年 3 月 26 日正式通過《晶片安全法》(Chip Security Act,H.R. 3447)。法案要求在受出口管制先進 AI 晶片中強制嵌入位置核查機制,期望能全面封堵晶片走私至中國等敵對國家漏洞。此舉標誌美國對半導體出口管控施壓,從貿易限制層面升級至硬件技術監控層面。這對 Nvidia 及 AMD 等晶片巨頭全球銷售策略影響深遠。

DeepSeek 引爆立法導火線

中國 AI 新星 DeepSeek 引發震盪,成為《晶片安全法》直接導火線。美國眾議院中國問題特別委員會調查指出,DeepSeek 疑似使用受限制出口 Nvidia 先進晶片開發 AI 模型。這令華盛頓朝野兩黨強烈不滿。特別委員會主席 John Moolenaar(共和黨密歇根州代表)明確警告,中國正積極非法走私美國晶片。現行出口管制存在執法盲點,難以追蹤晶片實際流向。

3 月 25 日法案過關同一天,美國司法部宣布起訴一名中國公民及兩名美國公民。司法部指控三人密謀透過泰國,向中國走私受管制先進 AI 晶片。這證明立法具迫切性。Moolenaar 在委員會通過法案後表示,這項立法將落實位置核查機制以剝奪對手算力優勢,全力推進總統特朗普 AI 行動計畫。司法部起訴案在時機上與立法進程高度吻合,充分說明現有管控框架漏洞,已到了必須以技術手段封堵時刻。

法案三大核心機制拆解

根據《晶片安全法》,商務部必須主導建立晶片安全機制。核心要求涵蓋三項。第一,強制在受管制先進 AI 晶片中嵌入位置核查功能,防止晶片轉運至未授權地區。第二,要求晶片製造商強制上報任何已知晶片非法轉移資訊。第三,責成商務部研究額外防護措施,全面阻止美國晶片遭竊用或落入敵對勢力手中。眾議院外交事務委員會主席 Brian Mast(共和黨佛羅里達州代表)力推法案通過。他亦於今年 1 月 22 日推動通過《AI OVERWATCH 法案》,試圖賦予國會對 AI 晶片出口許可否決權。

業界對此強烈反彈。半導體行業協會(SIA)公開反對《晶片安全法》。協會警告強制要求未經測試且技術上可能不可行內建機制,這種一刀切規定將損害全球對美國科技信任,並帶來高昂成本負擔。SIA 立場代表 Nvidia、Qualcomm 及 Intel 等頭部廠商共同憂慮。位置追蹤系統設計、部署與維護牽涉鉅額研發投入。這也可能在地緣政治敏感市場,引發採購方私隱疑慮,令美國晶片競爭優勢受損。

Nvidia H200 出口:一扇窗剛開,另一扇門將關

《晶片安全法》通過,令 Nvidia 對華 H200 晶片銷售前景蒙上陰影。特朗普政府於 2026 年 1 月 13 日宣布,將 H200 晶片對華出口許可審查方式,從推定拒絕調整為逐案審查,期望能為中國科技企業打開一扇窗。國家安全審查程序至今仍在進行,已引致訂單延誤。中國企業開始另謀算路,尋求替代算力方案。

執法力度加強同樣令市場警惕。商務部出口管制局(BIS)於 2026 年 2 月 12 日,對美國半導體設備巨頭 Applied Materials 開出 2.52 億美元(約港幣 19.65 億元)天價罰款。原因為非法向中國出口離子注入設備。這成為 BIS 歷史上第二大罰款紀錄,突顯執法力度正顯著加強。一旦《晶片安全法》正式成法,H200 能否順利出貨中國,將取決於中方能否滿足新增位置核查技術規格。這無疑為本已複雜中美晶片談判,增加談判籌碼。

從禁令到追蹤:管控邏輯根本升級

從宏觀歷史脈絡觀察,美國持續加強半導體出口管控。拜登政府於 2022 年頒布出口禁令,針對 16 納米以下先進晶片。2023 年《晶片法案》落實並設立國家安全護欄。參議員 Tom Cotton 於 2025 年提出參議院版本《晶片安全法》(S. 1705),要求同等位置核查機制。BIS 於 2026 年 1 月更新先進運算商品許可審查政策。同年 3 月《晶片安全法》於眾議院委員會過關。這些舉動將管控邏輯從限制出口,提升至追蹤晶片去向全新層面。

東亞論壇分析指出,美國正以靜默執法取代高調升級方式,持續推進對華晶片管控。預計未來重心在於執法精準度,而非一味擴大禁令範圍。對香港及亞太地區而言,位置核查機制一旦強制落實,任何中轉亞太晶片均難逃追蹤。以轉口方式規避管制灰色空間將大幅壓縮,供應鏈合規成本亦隨之上升。

全球算力版圖重塑時刻

《晶片安全法》目前仍需經過眾議院全院表決及參議院通過,方可送交總統簽署成法。短期內 SIA 等業界力量遊說博弈,將決定法案最終版本會否軟化。長遠觀察,若位置追蹤成為先進 AI 晶片出口強制前提,全球算力供應鏈將面臨根本性重構。中國科技業者如何在算力需求持續膨脹背景下重新佈局,將是未來一年最值得觀察產業命題。

 

資料來源:chinaselectcommittee.house.govwttlonline.comeastasiaforum.orgreuters.comdig.watch

read more
IT 基建人工智能企業趨勢

1 兆美元商機開跑:解析 NVIDIA 供貨 AWS 百萬顆 GPU 戰略佈局


1 兆美元商機開跑:解析 NVIDIA 供貨 AWS 百萬顆 GPU 戰略佈局

NVIDIA 與亞馬遜雲端服務 AWS 本週宣布達成雲端運算史上規模最大晶片採購協議。根據協議 AWS 將於 2027 年底前向 NVIDIA 購入超過 100 萬顆 GPU 及配套產品。這項多年期合作計劃自 2026 年起開始出貨,正好呼應行政總裁黃仁勳提出 1 兆美元(約港幣 7.8 兆元)AI 晶片商機藍圖。

百萬顆晶片真實面貌

這項協議引人矚目之處在於涵蓋範圍極廣,遠超單純 GPU 數量。NVIDIA 超大規模與高效能運算部門副總裁 Ian Buck 向 Reuters 透露,合約涵蓋超過 100 萬顆 GPU,同時包含 NVIDIA Spectrum 網絡晶片、ConnectX 與 Spectrum-X 網絡裝置。NVIDIA 亦斥資約 170 億美元(約港幣 1,326 億元)取得 AI 推論初創公司 Groq 晶片授權。

AWS 官方公告確認部署 GPU 將涵蓋 Blackwell 與 Rubin 兩大架構。AWS 同時成為全球主要雲端供應商中率先支援 NVIDIA RTX PRO 4500 Blackwell Server Edition GPU 業者。

AWS 同時整合 NVIDIA NIXL 互連加速技術,最佳化大型語言模型 LLM 分散式推論效能,並與亞馬遜彈性網絡介面 EFA 協同運作。深度技術融合顯示這項合作絕非單次採購,而是兩家企業於 AI 基礎設施層面全面協作。

推論戰場七晶片策略

Ian Buck 直言推論任務極具挑戰,要在推論領域達到頂尖水準無法單靠一款晶片,他們實際部署全部 7 款晶片。這番話點出合作技術核心,AWS 將 Groq 晶片與 6 款 NVIDIA 晶片混合部署,專門最佳化 AI 推論工作負載。AI 推論 Inference 指 AI 系統為使用者生成答案及執行任務過程。大規模商用場景中,此過程對延遲與成本極為敏感。

NVIDIA 於 GTC 2026 發表 Groq 3 LPX 語言處理單元推論加速器。該晶片由三星 4 納米製程生產,與 Vera Rubin NVL72 GPU 協同運作,專門處理解碼 decode 階段中對延遲最敏感部分。根據 NVIDIA 官方資料,Vera Rubin 搭配 LPX 組合可實現每兆瓦高達 35 倍推論吞吐量提升,並為兆參數模型帶來最多 10 倍營收增長。

市場研究機構 SiliconAngle 分析師指出這舉動堪稱「NVIDIA Groq 時刻」,猶如當年收購 Mellanox 網絡晶片。NVIDIA 藉由 Groq 技術將低延遲推論路徑整合至自身平台,延長現有裝置使用週期,同時強化 CUDA「一次撰寫,到處運行」生態優勢。行政總裁黃仁勳預估約 25% GPU 工作負載將與 Groq 晶片搭配部署。Groq 技術導入後有望每吉瓦 gigawatt 創造 3,000 億美元(約港幣 2 兆 3,400 億元)年收入。

兆元商機與雲端軍備競賽

協議規模直接呼應黃仁勳於 GTC 2026 主題演講宏觀預測。黃仁勳明確表示 NVIDIA Rubin 與 Blackwell 系列晶片至 2027 年潛在商機將達到至少 1 兆美元(約港幣 7.8 兆元),較前一年預測 5,000 億美元(約港幣 3 兆 9,000 億元)大幅增倍。市場分析機構 aInvest 指出全球雲端 AI 基礎設施支出預計 2028 年突破 3 兆美元(約港幣 23.4 兆元)。AWS 與 NVIDIA 這筆協議正是搶佔市場佔有率關鍵佈局。

從競爭格局觀察,AWS 此舉明顯針對 Microsoft Azure 與 Google Cloud 展開戰略反制。Microsoft 已將 NVIDIA Vera Rubin NVL72 機架系統整合至下一代 AI 資料中心,Google Cloud 同樣於 GTC 2026 宣布擴大與 NVIDIA 合作。AWS 與 NVIDIA 合作逾 15 年,協議將雙方關係提升至全新高度。AWS 資料中心傳統採用自研網絡裝置,此次首度開放部署 NVIDIA ConnectX 與 Spectrum-X 網絡硬件,顯示 AWS 對 NVIDIA 全棧解決方案高度信任。

十五年夥伴關係集大成

NVIDIA 與 AWS 合作逾 15 年,雙方早年聯合開發全球首套 GPU 雲端運算服務奠定業界先例。2023 年 AWS 宣布配置 16,384 顆 NVIDIA GH200 超級晶片超級電腦,算力達 65 exaflops,率先將 NVIDIA 頂尖硬件引入雲端。2025 年底兩家公司於 AWS re:Invent 大會進一步加深合作。AWS 更將 NVIDIA NVLink Fusion 整合至自家 Trainium4 特製晶片及 Graviton 處理器,展現互補而非競爭技術哲學。

這項百萬 GPU 協議象徵雙方長期夥伴關係集大成。NVIDIA Rubin 系列晶片預計 2026 年下半年正式在網上推出,AWS 為全球首批部署業者之一,與 Microsoft、Google、Oracle Cloud Infrastructure 並列。Dell、HPE、Lenovo、Supermicro 等伺服器廠商同步跟進,標誌以 Rubin 為核心下一代 AI 基礎設施生態正式成形。

奠定 AI 算力霸主地位

這項協議對企業影響深遠且立即。雲端客戶可於 AWS 平台更早及更具成本效益取得下一代 Blackwell 與 Rubin 算力,加速 AI 應用從概念驗證走向大規模商用。對 NVIDIA 而言 AWS 為期兩年鎖定採購提供可預測大額營收,有助穩定市場預期並強化投資者信心。消息公布後兩家公司股價於盤後交易中均小幅上揚。

然而規模越大挑戰亦隨之增加。NVIDIA 能否按時完成 100 萬顆 GPU 及 Groq 晶片供應承諾將成為 2027 年初財報關鍵考驗。隨著 AI 推論成為下一個競爭焦點,NVIDIA 與 AWS 聯手建立算力格局將如何重塑雲端競爭秩序值得持續觀察。

 

資料來源:
ReutersAmazon Web Services官方部落格NVIDIA Developer BlogSiliconAngleTradingPedia

read more
IT 基建企業趨勢業界消息

Nikon 光刻機業務虧損 850 億日元:技術路線失誤與市場格局變遷


Nikon 光刻機業務虧損 850 億日元:技術路線失誤與市場格局變遷

Nikon 預計 2025 財年錄得 850 億日元虧損,創公司成立以來最差紀錄。這家百年光學精密儀器企業在半導體光刻機業務上全面失利。光刻機市場格局變化迅速,業界始料未及。Nikon 的表現反映傳統光學製造業在技術迭代中面臨的深層挑戰。

虧損分析:財務數據解讀

Nikon 財務表現嚴峻。2025 財年(截至 2026 年 3 月),集團總營收約 6,750 億日元,淨利潤預計虧損 850 億日元,營業利潤更暴跌 93.9%。Nikon 指出,虧損主因是 3D 列印業務拖累,數字製造業務計提 906 億日元資產減值損失。半導體光刻機業務持續萎縮亦是核心問題:精密設備業務營收 2,019.63 億日元,按年下降 7.9%,多年以來首度錄得虧損。

2026 財年上半年(2025 年 4 月至 9 月),Nikon 錄得近五年來首次營業虧損,合併營業虧損 48.29 億日元。Nikon 下修全年半導體光刻機銷量目標,由 34 台調低至 29 台,仍略高於 2024 年的 28 台。為控制成本,Nikon 於 2025 年 8 月宣佈關閉橫濱工廠,影響約 350 名員工。

Nikon 與 ASML 技術差距顯著

Nikon 與荷蘭 ASML 的技術差距顯著。2025 年全年,ASML 出貨 48 台極紫外光(EUV)光刻機及 131 台浸沒式深紫外光(DUV)裝置。Nikon 在 2025 財年上半年僅出貨 9 台半導體光刻機,全部為成熟製程舊型號,缺乏高階市場競爭力。ASML 在全球 EUV 光刻機市場佔有率逾 90%,預計 2025 年 EUV 銷售額按年增長約 30%,受惠於 AI 晶片及記憶體晶片需求快速增長。

市場佔有率對比顯示明顯差距。Nikon 在 2001 年佔有全球光刻機市場約 40% 份額,如今按金額計算已跌至個位數,位列全球第三,落後於 ASML 與 Canon。ASML 訂下 2030 年銷售額達 440 億至 600 億歐元(約 3,731 億至 5,088 億港元)的目標,兩家企業發展路向差異顯著。

技術決策失誤影響發展

Nikon 現時的困境源於多項關鍵技術決策失誤。2000 年代初浸沒式光刻技術興起,Nikon 未能把握發展時機,ASML 搶先實現商業化,奠定市場優勢。其後 Nikon 在 EUV 研發上堅持自行研發策略,結果被排除在 ASML 主導的 EUV 聯盟之外,聯盟成員包括 Intel、TSMC、Samsung 等主要晶片廠。Nikon 無法取得核心光源技術,投入超千億日元研發 EUV,最終只製成無法商用的原型機,商業化開發被迫終止。

客戶結構過度集中亦帶來風險。Nikon 長期依賴 Intel 為主要客戶,當 Intel 削減資本開支,Nikon 訂單大幅減少。Nikon 未能及時開拓 TSMC 與 Samsung 市場,難以彌補訂單缺口。TSMC 與 Samsung 作為全球晶圓代工兩大企業,現已與 ASML 的 EUV 生態緊密合作,Nikon 難以進入高階市場。

出口管制影響業務拓展

外部政策壓力影響 Nikon 業務。美國、日本與荷蘭於 2025 年 11 月簽署協議,協調收緊對中國的半導體裝置出口管制,涵蓋深紫外光刻系統、蝕刻設備等多類關鍵裝置,Nikon 包括在內。中國市場是日本半導體設備廠商的重要出貨目的地。管制收緊令 Nikon 交付成本上升,中國客戶流失,其在成熟製程設備領域的市場佔有率亦進一步下跌。

業界研究報告顯示,Nikon 在華業務受管制衝擊較財報所述更明顯,DUV 設備的長期服務合約已出現縮減。ASML 在 2024 年仍向中國客戶出售逾七成 DUV 浸沒式設備,Nikon 面對的管制壓力則更早、更直接。

轉型挑戰與未來方向

Nikon 的困境反映全球半導體設備產業格局變化。850 億日元虧損顯示日本光刻機產業在高階市場失去競爭力。AI 晶片需求帶動 3 奈米以下先進製程投資,EUV 光刻機市場地位將更穩固,Nikon 重返高階光刻機市場的機會渺茫。先進封裝業務快速發展,或可為這家百年企業提供新機遇。Nikon 的轉型速度能否配合市場需求,將決定其未來發展。

 

資料來源:Nikon Investor Relations | 財聯社 – Nikon 2025 財年預虧 850 億 | Yahoo Finance / Nikon DSP-100 | Investing.com – Nikon Q3 Loss | TrendForce – Yokohama Closure

read more
IT 基建企業趨勢低碳綠色

拆解三星能源佈局:虛擬電廠成未來趨勢 軟件主導電網發展


拆解三星能源佈局:虛擬電廠成未來趨勢 軟件主導電網發展

Samsung Ventures 領投愛爾蘭初創企業 GridBeyond 共 1,200 萬歐元(約港幣 1.01 億元)融資。今次投資期望能以 AI 驅動虛擬電廠軟件與電池硬件,解決電網尖峰缺電問題,讓 AI 數據中心與高耗能產業快速取得穩定電力。

GridBeyond 創辦人兼行政總裁 Michael Phelan 表示資金將加速平台在歐美及亞太區擴張。目前品牌已管理 1GW 可再生能源供給與數 GW 工業負載需求側容量。參與者亦包括 ABB 及 EDP 等能源巨頭,反映虛擬電廠在可再生能源市場漸受重視。

融資詳情與技術核心

GridBeyond 旗下 Point 平台透過硬件控制器與 AI 軟件將太陽能、風力發電、水力、儲能電池及工業負載整合成虛擬電廠。平台參與電力市場調度與容量競標,客戶無需資本支出即可產生收益。

平台已在美國加州管理 200MW 電池儲能系統。系統能在秒級回應電網需求,速度比傳統燃氣電廠快數倍。平台透過買低賣高套利與需求響應服務為客戶創造穩定現金流。愛爾蘭早年因風力發電滲透率高而面臨平衡挑戰。GridBeyond 正是從當地起步並擴展至多國商用與工業場景,當中包括大型數據中心負載調節。

行政總裁 Phelan 接受傳媒訪問時強調電網問題本質是尖峰時段電力不足。虛擬電廠能調降工業用電或釋放電池儲能以快速填補缺口。他認為這項技術有助各大企業建立 AI 基礎設施。

Samsung SDI 近期簽下美國 1.5 兆韓圜 ESS 電池訂單,並計劃於 2026 年啟動美國 BESS 生產。公司期望能透過是次投資將自家電池產品嵌入 GridBeyond 生態,藉此提升全球市場佔有率。

業界分析 Samsung 競爭策略

GridBeyond 北美首席產品總監 Sean McEvoy 表示團隊採用 AI 原生開發整合軟件與硬件。他認為 Samsung Ventures 加入將加速北美市場發展進度。市場數據顯示全球固定式儲能市場 2025 年部署量達 70GW,按年增長逾 50%。Tesla 及 Fluence 等競爭對手主攻硬件發展。GridBeyond 則專注軟件開發以達至跨資產最佳化,預計能額外創造 20% 至 30% 收益。

業界預計 2030 年 AI 數據中心用電將佔全球電力 10%。傳統電網擴建需時 5 年至 10 年,虛擬電廠則能立即釋放現有容量。Samsung 藉此除售賣電池亦提供電網接入服務,成功鎖定高毛利訂閱模式。

ABB 資深科學家 Huangjie Gong 表示 GridBeyond 等虛擬電廠可串聯分散式能源。香港等亞太區城市正推動 AI 與 IoT 能源管理,預期類似方案將成業界標準。

EDP Renewables 北美結構經理 Dustin Huff 補充此類平台改善網絡連接與市場動態,能平衡獲利與電網穩定。他認為這對可再生能源與儲能項目發展有很大幫助。

軟件主導市場發展趨勢

Tesla 能源部門 2025 年儲能部署成績理想。GridBeyond 則主打無資本支出參與模式以吸引工業客戶轉型。市場預計 2026 年虛擬電廠市場規模將達 150 億美元(約港幣 1,170 億元)。

Samsung SDI 期望憑藉相關布局與 CATL 及 LG Energy Solution 競爭,藉軟件優勢爭奪電網級 BESS 市場佔有率。香港智能燈柱與潔淨能源平台正尋求類似解決方案,反映亞太區市場有一定需求。

可再生能源的間歇特性容易導致尖峰需求。AI 訓練高峰亦會放大電力波動。GridBeyond 透過電池緩衝與負載調節降低電網崩潰風險,相關成效已在西班牙項目中得到證實。相關數據已比對 Samsung SDI 財報與 IEA 儲能報告作實。GridBeyond 方案涵蓋 AI 及電池等多個領域,同時提供需求響應與容量市場等功能。

歷史發展與香港市場啟示

GridBeyond 於 2015 年在愛爾蘭都柏林成立,2018 年獲 Enterprise Ireland 支援。公司於 2023 年併購 Veritone 能源單位。品牌管理容量從 100MW 躍升至 1GW 以上,年複合增長率逾 80%。GridBeyond 於 2024 年進軍澳洲與日本市場。美國加州 200MW 電池項目亦於 2025 年順利上線。加上 Samsung 融資消息,反映虛擬電廠正從歐洲試點過渡至全球商業運作。

香港政府正推動智能能源管理 AI IoT 方案,期望到 2035 年可再生能源發電比例達 7.5%。本港電網負荷率高,GridBeyond 模式值得參考。若能結合中電與港燈負載調節,預計可進一步發展本地數據中心。IEA 報告指出亞太區儲能部署落後歐美地區 30%。GridBeyond 等軟件平台或能彌補基礎設施缺口,推動零碳排放轉型。

市場發展前景

這項投資有助 Samsung 加強電池業務與 AI 供應鏈。市場預期其 2027 年 ESS 營收將會增倍。虛擬電廠為各大能源企業提供資產變現新途徑,企業可藉此降低碳排放並增加營運收入。軟件將會主導電網未來發展方向。本港企業管理層或需考慮如何藉助 AI 潔淨能源平台,將歐洲的成功經驗應用到香港市場。

 

資料來源:TechCrunchYahoo FinanceChosunEnergy Storage NewsHong Kong Smart Lab

read more
IT 基建人工智能企業趨勢雲端服務

拆解 Microsoft 數據中心黑科技:MicroLED 結合中空光纖解決 AI 能耗瓶頸


拆解 Microsoft 數據中心黑科技:MicroLED 結合中空光纖解決 AI 能耗瓶頸

Microsoft 於 2026 年 3 月公佈兩項網絡技術新進展,分別是 MicroLED 光源系統及中空光纖(Hollow Core Fiber,HCF)。這兩項源自英國劍橋 Microsoft 研究中心的技術,期望能解決雲端運算及 AI 工作量急升帶來的能源與效能瓶頸。研究人員估算 MicroLED 技術比現有雷射光纖方案節省約 50% 能源,而中空光纖則已在部分 Microsoft Azure 區域率先投入使用。

MicroLED 模組縮至拇指大小 簡化數據中心佈線

現時數據中心普遍採用雷射二極體驅動的光纖傳輸系統。雖然效能理想,但製造成本高且壽命相對短,一直是業界的問題所在。Microsoft 劍橋實驗室研究人員成功開發出以 MicroLED 為核心的收發器原型。團隊將關鍵組件微型化,整合至只有大約拇指大小的模組內。工作人員可以直接將這些模組插入伺服器使用,大幅簡化部署流程。

MicroLED 技術以低成本光源取代傳統雷射元件。由於 MicroLED 製程比雷射二極體成熟且良率較高,有助減低硬件採購成本。能耗方面,研究人員估算 MicroLED 比現時主流雷射光纖方案減少約 50% 能源消耗。對於需要運行過萬部伺服器的大型數據中心而言,能大幅節省電力。

Microsoft 計劃在 2027 年將 MicroLED 技術推出市場。官方網誌指出,劍橋研究團隊正與硬件合作夥伴協調並為量產作準備,確保技術能如期在實際數據中心環境應用,應付 AI 基建需求。

中空光纖已在 Azure 啟用 傳輸速度提升 47%

相比仍在研發階段的 MicroLED,中空光纖技術已率先投入商業部署。中空光纖與傳統單模光纖(Single Mode Fiber,SMF)的內部構造不同。傳統光纖主要以玻璃傳導光訊號,而中空光纖芯部則是空氣。光線在接近真空環境中傳播,大幅減少光速損耗。

實測數據顯示,中空光纖比傳統單模光纖最高可提升約 47% 數據傳輸速度,訊號延遲亦降低約 33%。訓練及推理 AI 模型時,GPU 叢集之間的高頻數據交換對網絡延遲非常敏感。降低 33% 延遲可直接提高計算吞吐量,提升大型語言模型(LLM)的訓練效率。Microsoft 強調中空光纖可兼容現有單模光纖裝置。除了安裝過程簡便,光纖的柔韌度亦方便在不同場景靈活佈線。目前量產版本已在部分 Microsoft Azure 區域正式啟用,並計劃未來擴展至全球更多地區。

AI 擴張加速數據中心轉型

AI 發展帶來龐大的運算需求,促使各大科技公司尋求更具能源效益的基建方案,以應付未來的數據中心擴張。

資料來源:Microsoft Official Blog

read more
IT 基建人工智能業界消息

Vera Rubin 平台重寫算力經濟學 NVIDIA 掀起全球 AI 數據中心投資熱潮


Vera Rubin 平台重寫算力經濟學 NVIDIA 掀起全球 AI 數據中心投資熱潮

NVIDIA 行政總裁黃仁勳於 2026 年 3 月 16 日在聖荷西 SAP 中心 GTC 年度開發者大會演講中,正式宣告「推論時代」到來。他將全球 AI 基礎建設需求預測從去年 5,000 億美元(約港幣 3 兆 9,000 億元)大幅上修至 2027 年底前至少 1 兆美元(約港幣 7.8 兆元)。這修正幅度直接令場內逾 30,000 名與會者震驚。演講除了是一次產品發布,也是對 AI 產業結構全面重新定義。影響波及晶片製造商、雲端巨頭、資本市場以至亞洲數據中心投資者等整條產業鏈。

兆計美元需求背後的算力爆炸

黃仁勳在演講中揭示一組震撼數據。過去兩年內完成單一 AI 工作所需推論運算量增加約 10,000 倍。整體使用量亦同步增加約 100 倍,導致全球推論運算總需求在短短兩年間暴增整整 1,000,000 倍。這增幅並非源於演算法改良或使用者數量線性成長,而是來自 AI 能力質變帶來範式轉移。黃仁勳解釋過去 AI 只能「感知」,繼而進化到「生成」,再躍升為「推理」。如今 AI 已能執行完整任務,每一個「思考」、「行動」、「閱讀」與「推理」動作,背後都需要持續生成 Token,令推論需求從選項變成剛需。

市場對這預測反應迅速且明確。有媒體引述 MarketScreener 報導指出,黃仁勳在 GTC 大會上宣布,Blackwell 與 Vera Rubin 兩大 AI 晶片架構累計訂單需求,預計到 2027 年底將達到 1 兆美元(約港幣 7.8 兆元),是去年同期預測整整兩倍。黃仁勳進一步補充指 1 兆美元這個數字「可能還是低估」。他在現場直言確定實際運算需求將遠超這數字,甚至可能面臨供給短缺。這表態意味這場 AI 基礎建設超級週期規模,或許連最樂觀市場估算都未能完全觸及天花板。

AI 工廠時代:Token 成為新型原物料

黃仁勳在演講中提出全新產業框架「AI 工廠」(AI Factory)。他指出未來數據中心不再只是儲存或傳輸數據設施,而是以生成 Token 為核心使命的生產基地。Token 就是這時代「新型原物料商品」。他特別強調每一座數據中心按定義都受限於電力。一座 1GW 工廠永遠不會變成 2GW,這是物理定律決定。在固定電力下,誰能以每瓦特產出最多 Token,誰就擁有最低生產成本。

支撐這願景是 NVIDIA 「極致協同設計」(Extreme Codesign)哲學。軟件與矽晶片在設計階段深度整合,令 NVIDIA 宣稱在全球推論成本競爭中處於領先地位。知名半導體分析機構 SemiAnalysis 創辦人 Dylan Patel 直接指出,黃仁勳公布效能數據甚至「有所保留」。實際推論效率提升幅度達到 50 倍,超過 NVIDIA 官方宣稱 35 倍。Deepwater Asset Management 聯合創辦人 Gene Munster 亦表示,是次 GTC 大會重申 AI 基礎建設需求遠比投資者預期強勁。他預期 Rubin 架構將大幅改善大規模部署 AI 模型時推論經濟效益。

Vera Rubin 平台:重寫算力經濟學的一代飛躍

NVIDIA 在 GTC 2026 正式宣布推出 Vera Rubin 平台。相比前一代 Blackwell 架構,推論 Token 成本降低達 10 倍,訓練混合專家模型(MoE)所需 GPU 數量亦減少 75%(即 4 倍)。這除了是技術規格線性進步,也是 AI 商業化部署門檻根本性突破。黃仁勳以具體數據說明,在同等 1GW 數據中心條件下,過去兩年間 Token 生成速率從每秒 22,000,000 躍升至 700,000,000,實現高達 350 倍成長,遠超同期摩爾定律帶來約 1.5 倍提升。

除 Vera Rubin 外,黃仁勳亦發布 Vera CPU 機架,專為代理式 AI(Agentic AI)工作負載最佳化。他同時展示 Groq LP30 語言處理單元(LPU),這是 NVIDIA 完成對 Groq 技術授權與團隊收購(交易規模約 200 億美元,約港幣 1,560 億元)後推出高速推論加速晶片。黃仁勳透露 Groq LP30 由三星晶圓代工(Samsung Foundry)生產,目前已進入量產階段並預計於第三季正式出貨。第一座 Vera Rubin 機架已在 Microsoft Azure 雲端上網運作。根據 Investing.com 分析,Vera Rubin 平台效能潛力能為 NVIDIA 帶來高達 5 倍潛在收益提升。NVIDIA CPU 業務亦預計在這週期內成長為數十億美元規模新業務線。

AI 原生企業浪潮與 1,500 億創投資金

推動此波需求核心力量,是黃仁勳所稱「AI 原生企業(AI Natives)」生態系統。他指出包含 OpenAI、Anthropic 以及大量市場尚未熟知初創企業,過去兩年間合計吸引高達 1,500 億美元(約港幣 1 兆 1,700 億元)創投資金,創下人類史上最大規模科技投資紀錄。黃仁勳特別強調這些企業共同特徵是投資規模首次從數百萬美元躍升至數億乃至數十億美元。背後原因只有一個,這是史上首次每一家企業都需要大量算力與海量 Token 才能運作。這形成清晰正向飛輪邏輯:算力增加→Token 生成量提升→模型更聰明→業務規模擴大→更大算力需求。

放眼香港與亞太市場,這波浪潮影響同樣深遠。香港數據中心市場預計從 2025 年 36.2 億美元(約港幣 282.36 億元)增長至 2031 年 58.1 億美元(約港幣 453.18 億元),年複合增長率達 8.2%。仲量聯行(JLL)預測 2027 年將成為關鍵轉折點,屆時 AI 推論工作負載佔比將正式超越訓練工作負載,成為數據中心需求主要驅動力。香港政府已釋出沙嶺地塊進行招標,最大總樓面面積達 250,000 平方米。政府明確以推動數據與 AI 相關產業,將香港建設為區域數碼化基礎建設樞紐為目標。仲量聯行報告指出全港目前已有逾 200 兆瓦新開發數據中心項目採用高密度機架與液冷技術,正快速向 AI 最佳化基礎建設轉型。

競爭格局與行業深遠影響

這場推論時代到來對整個科技產業格局影響不容低估。根據 Intellectia.ai 分析,NVIDIA 預測 AI 數據中心基礎建設支出到 2030 年將達每年 4 兆美元(約港幣 31.2 兆元)。目前超大規模雲端業者(Hyperscalers)貢獻 NVIDIA 約 60% 營收,其餘 40% 來自區域雲端、企業、機械人等多元化客戶群。Microsoft 已率先成為 Vera Rubin 平台首批大客戶,正積極建設以 Rubin 平台為核心次世代「Fairwater AI 超級工廠」,飛輪效應正在加速滾動。NVIDIA 透過「機架即電腦」整合架構,將價值從單一晶片延伸至整個系統棧,令競爭對手難以從任何單一環節發起有效挑戰。

香港投資者積極捕捉這趨勢。香港本地投資機構 Accelerated Infrastructure Capital(AIC)正在越南胡志明市聯合開發造價達 21 億美元(約港幣 163.8 億元)AI 數據中心。項目首期規模達 50 兆瓦,相當於 28,000 個 GPU 算力。這動向顯示推論基礎建設投資熱潮正以香港為起點,快速向東南亞擴散。

未來展望與結構性挑戰

黃仁勳在 GTC 2026 描繪願景,標誌 AI 產業從「實驗室模型競賽」正式跨入「工業化推論基礎建設」全新紀元。1 兆美元需求預測、Vera Rubin 降低 10 倍 Token 成本,以及 Token 作為新原物料產業重新定義,預示未來兩至三年內,從晶片製造、數據中心建設到電力基礎設施整條供應鏈,都將迎來前所未有擴張壓力。然而如何解決數百萬瓦級數據中心帶來能源消耗與供電挑戰,以及 Vera Rubin Ultra 能否如期量產出貨,將是決定這場「兆美元賭注」能否兌現關鍵變數。

 

資料來源:news.futunn.com | www.marketscreener.com | www.ainvest.com | www.cbre.com.hk | technode.global

read more
IT 基建人工智能低碳綠色應用方案科技專欄

追蹤蝶影助維持生物多樣性 科技提升監測效率 創造更宜居城


追蹤蝶影助維持生物多樣性 科技提升監測效率  創造更宜居城

鄧淑明博士
香港大學計算與數據科學學院及社會科學學院地理系客席教授

 

蝴蝶在自然生態系統中扮演重要角色,而香港位處亞熱帶地區,氣候溫暖濕潤,擁有豐富多元的植物資源,可為蝴蝶提供理想的棲息與繁殖環境。

 

香港的總面積雖然只有中國的萬分之一,有記錄的蝴蝶種類卻有 245 種,佔全中國紀錄到的品種的 11%,種類非常豐富。蝴蝶具有獨特的生態、科學和經濟價值,特別是在生態學上與植物的關係,因為不少植物都必須依靠蝴蝶傳播花粉,以協助繁衍後代。此外,蝴蝶的幼蟲更有被研發作藥物用途,由此可見,蝴蝶對香港維持生物多樣性擔當著重要的角色。

 

由於蝴蝶幼蟲十分偏食,對生態環境十分敏感,故其存活數量便成為一個地方的「生態指標」,不少專家以其數量及品種的變化作為依據,評估一處地方的生態價值。為了解本港蝴蝶冬季聚集的熱點是否適合牠們遷徙與棲息,有大專學生開展了題為「遷蝶蹤跡」的研究。她們選取香港公園、深水灣谷等七個蝴蝶聚集地進行觀察,並結合地理資訊系統 (GIS) 分析各地環境特徵。研究發現,地形、氣候、植被分佈、日照以及人類活動,均會影響蝴蝶的遷徙行為。她們建議相關部門善用科學數據,持續追蹤蝴蝶遷徙的模式與路線,從而制定更符合生態可持續發展的保育策略。

 

事實上,政府近年也引入人工智能系統,以高清影像識別香港的蝴蝶品種,務求更精準地監測本港自然生態,實現以數據驅動環評研究和生態保育。這套系統目前已能辨識十種蝴蝶,成功率令人滿意。當局已計劃在未來兩年內逐步將系統的辨識能力提升至涵蓋 245 種蝴蝶,屆時市民只要將拍下的蝴蝶照片上傳至系統,便能即時查出其品種和相關資料,相信此技術能有助推動公眾教育與生態調查,進一步強化本地的蝴蝶保育工作。

 

環境保育有助維持生物多樣性,還能增加香港的可宜居度。因此,我們要保護大自然生態,打造更優質的居住環境,增添市民生活的幸福感。

read more
IT 基建人工智能業界消息

全球晶圓代工龍頭格局重塑: 肩負生產國產 AI 晶片 中芯國際穩居第三


全球晶圓代工龍頭格局重塑: 肩負生產國產 AI 晶片  中芯國際穩居第三

市場調查機構 TrendForce 於 3 月 13 日發表 2025 年全球十大晶圓代工排名。受惠於 AI 及高效能運算需求,全球晶圓代工產值按年增長 26.3% 至 1,695 億美元(約港幣 1.32 兆元)。當中 TSMC 以營收 1,225.4 億美元(約港幣 9,558.1 億元)及高達 69.9% 的市場佔有率穩佔榜首。中芯國際則以營收 93.3 億美元(約港幣 727.7 億元)晉身季軍,在個別季度表現更成功超越 Samsung。

TSMC 先進製程主宰市場

TSMC 於 2025 年營收高達 1,225.4 億美元(約港幣 9,558.1 億元)。其市場佔有率由 2024 年的 64.4% 躍升至 69.9%,下半年兩季更突破七成。3nm 製程產能供不應求是增長主因,當中涵蓋流動晶片與各種 AI 應用。預料即將投產的 2nm 工藝將進一步鞏固其霸主地位。即使在 28nm 等成熟製程上,TSMC 營收仍達 85.7 億美元(約港幣 668.5 億元),佔總營收 7%。半導體分析機構 Tower 指出 TSMC 幾乎壟斷先進製程利潤。

受惠於 Apple 備貨 iPhone 及 Nvidia 量產 Blackwell 平台,TSMC 晶圓出貨量與平均售價同步上升。單計第三季營收已突破 330 億美元(約港幣 2,574 億元),市場佔有率達 71%。TrendForce 資深分析師 Ray Hsieh 指 7nm 以下先進製程對營收貢獻最大。龐大的 AI 伺服器需求持續推高 TSMC 產能利用率,預料 2026 年無人能撼動其領先地位。雖然地緣政治因素令部分企業尋求供應鏈多元化,但 TSMC 的技術壁壘極高,客戶難以輕易轉投其他代工廠。

中芯國際產能擴張迎國產需求

全賴國產替代浪潮及先進製程產能緊張,中芯國際 2025 年營收錄得 93.3 億美元(約港幣 727.7 億元)。按年 16.2% 的升幅令其市場佔有率達 5.1%,成功穩坐第三位。中芯國際計劃在 2026 年每月增加 4 萬片 12 吋晶圓產能,令總產能增至 251.5 萬片(等效 8 吋),以應付寒武紀等中國 AI 晶片客戶需求。市場調查機構 Counterpoint 分析師指中芯國際在政府補貼下,成熟製程競爭力大增。數據顯示中國目前有四間晶圓代工廠躋身全球前十名,當中包括華虹與 Nexchip。雖然中芯國際提升 7nm 良率的過程拖低了毛利,但整體擴產策略確實見效。

海豚研究專家俎永熙表示中芯國際肩負生產國產 AI 晶片的重任。擴大產能有助滿足電動車及功率晶片的龐大需求。中美貿易摩擦加速晶片本土化進程。在政策補貼下,中芯國際營收由 2023 年的 49.37 億美元(約港幣 385.1 億元)倍增至 2025 年的 93.3 億美元。香港杰立方碳化矽晶圓廠亦預計於 2027 年投產,進一步完善區內半導體供應鏈。

Samsung 腹背受敵市佔率下滑

Samsung 於 2025 年的晶圓代工營收為 126.34 億美元(約港幣 985.5 億元)。其全年市場佔有率跌至 7.2%。雖然 2nm 工藝已經量產且 4nm 良率穩定,但 Samsung 面對先進製程客戶流失卻束手無策。單靠 Nvidia RTX 3060 等舊訂單根本無法扭轉劣勢。TrendForce 數據指出 Samsung 第三季營收停滯於 31.84 億美元(約港幣 248.4 億元)。當季市場佔有率更跌至 6.8%,單季表現被中芯國際反超。

Samsung Foundry 執行副總裁 Bonyoung Koo 正帶領團隊積極爭取 AMD 的 2nm 訂單,同時透過多專案晶圓測試 SF2P 製程。然而面對 TSMC 產能爆滿及瘋狂加價,Samsung 似乎只被客戶視為次選的備用方案。金融服務機構 Susquehanna 分析師 Hosseini 指 Samsung 記憶體業務表現反覆。相比 TSMC,其盈利質素較差且自由現金流較低。中國晶圓廠在成熟製程瘋狂劈價搶客,地緣政治風險亦打擊中東供應鏈。

產業生態演變與數據對比

全球晶圓代工市場自 2020 年起在疫情及 AI 熱潮推動下,年複合增長率一直維持在 20% 以上。回顧 2024 年排名,TSMC 以 64.4% 佔有率排榜首,Samsung 緊隨其後,中芯國際位列第四。2025 年市場出現明顯變化。雖然下半年記憶體價格有上漲隱憂,但全年總產值依然按年大增 26.3% 至 1,695 億美元(約港幣 1.32 兆元)。中國晶圓廠市場佔有率全面報捷,共有四間企業打入全球十大。歷史數據反映中芯國際營收飆升 27%,相反 Samsung 的佔有率則由去年的 7.3% 持續下滑。

受惠於人工智能及高效能運算晶片需求,十大代工廠在 2025 年第三季的總營收上升 8.1% 至 451 億美元(約港幣 3,517.8 億元)。當中 TSMC 以高達 71% 的佔有率完全壟斷市場。中國內地繼續維持晶片補貼政策。香港科技園公司亦向杰立方批出 2 億港元資助,用作興建 8 吋碳化矽廠房以強化本地半導體產業。預料 DRAM 短缺可能稍微拖慢 2026 年第四季的增長步伐,但汽車工業晶片需求復甦應可為大市提供足夠支撐。

地緣政治重塑半導體供應鏈

中芯國際持續擴充產能,確實大幅提升了中國晶片的自給率。雖然他們在成熟製程上大舉攻城掠地,但先進製程技術仍有一段遙遠的追趕路程。在 AI 晶片需求主導的市場環境下,TSMC 幾乎賺盡了全行業絕大部分利潤。各國政府現正透過政策補貼建立本土晶片供應鏈。無論是香港杰立方的建廠計劃,還是中芯國際的瘋狂擴產,均反映地緣政治正在徹底改變全球半導體行業的資本流向。

 

資料來源:快科技 TrendForce AASTOCKS Semiecosystem TrendForce SMIC

read more
IT 基建人工智能雲端服務

Equinix 推 Distributed AI Hub 整合 Palo Alto Networks 強攻邊緣 AI 安全


Equinix 推 Distributed AI Hub   整合 Palo Alto Networks 強攻邊緣 AI 安全

全球數碼基礎設施龍頭 Equinix 正式推出 Distributed AI Hub 這個由 Equinix Fabric Intelligence  驅動統一平台即時覆蓋全球 280 個高效數據中心讓企業無需重構架構便可在最貼近數據與用戶位置執行 AI 推論工作負載。此次發布同步整合 Palo Alto Networks Prisma AIRS 為代理式 AI(Agentic AI)提供即時威脅偵測成為市場首個將分散式部署與零信任安全策略深度融合中立 AI 基礎設施平台。

企業 AI 部署碎片化困局終於有解

現實中企業 AI 工作負載從未集中存在。訓練數據散佈於公有雲、私有數據中心與邊緣環境;推論工作則因延遲、數據主權及合規要求被迫分拆至不同地理節點。這種各自為政孤島格局除了拖慢創新速度也令 IT 治理成本急劇攀升。

Equinix Distributed AI Hub 核心價值正是打通這條斷裂 AI 供應鏈。平台提供供應商中立統一框架整合模型供應商、GPU 雲端服務、數據平台、網絡安全服務及 AI 框架。企業可透過私有低時延連接在不轉移數據前提下自由調配跨地域 AI 運算資源。

國際數據資訊(IDC)數碼基建策略研究副總裁 Mary Johnston Turner 指出:「企業正加速部署代理式 AI 但現有基礎設施並非為分佈式智能複雜性而設。IDC 預計到 2027 年 80% 企業將部署分佈式邊緣基礎設施以提升 AI 應用延遲表現及回應速度。」 這一預測揭示市場迫切需求,現有超大規模雲端平台傾向推廣自家服務難以滿足多雲、多邊緣中立部署訴求而 Equinix 開放生態正好填補這空白。

Equinix 首席商務官 Jon Lin 強調:「AI 並非集中式運作而合適基礎設施能讓其運行流暢無縫。透過 Distributed AI Hub 我們讓企業能在數據、合作夥伴與團隊所在任何位置自由建構及擴展 AI 免卻整合複雜分佈式系統營運負擔。」

代理式 AI 時代安全防線必須與推論同步

Distributed AI Hub 最具突破性技術重點在於其與 Palo Alto Networks 深度整合。傳統網絡安全架構以靜態邊界防護為主難以應對代理式 AI 在執行任務時動態調用外部工具、API 及數據來源衍生攻擊面。

透過引入 Palo Alto Networks Prisma AIRS 讓 Distributed AI Hub 為 AI 代理(agents)與模型提供實時 AI 安全防護並在代理執行工作流程每個環節實施集中化政策控管。Prisma AIRS 亦將部署於 Equinix Network Edge 讓企業在靠近用戶與關鍵工作負載數碼邊緣統一管理 AI 驅動安全服務實現防護與推論地理同步。

Palo Alto Networks 方面表示此次合作標誌著 AI 安全從事後審計轉向同步防護範式轉移。 對於金融服務、醫療及政府等受嚴格監管行業而言這架構尤為關鍵,數據主權合規要求往往迫使推論工作負載必須留在特定地理區域而 Prisma AIRS 集中政策管理恰好能在不打破地理限制前提下維持全局安全態勢。

Alembic 科技總監暨資訊安全總監 Lloyd Taylor 評價道:「Equinix 透過 Distributed AI Hub 將部署位置、管理以及可預測效能整合到同一套架構中這正是掌握問題正確方式。這也讓分佈式 AI 能以企業規模正式推行。」

全球中立 AI 生態系統卡位戰略

要理解 Distributed AI Hub 戰略意義需回溯 Equinix 過去十年在數碼基礎設施市場佈局脈絡。Equinix 長期以互連中立平台定位旗下 Equinix Fabric 已連接超過 10,000 家全球企業、雲端供應商與網絡服務商。Equinix Fabric Intelligence™ 作為 Distributed AI Hub 技術底座將龐大互連網絡智能路由能力延伸至 AI 工作負載管理是平台得以實現零架構重構跨地域部署承諾核心。

從市場競爭角度審視超大規模雲端平台(AWS、Azure、Google Cloud)在 AI 基礎設施市場擁有龐大資源優勢但偏好自家服務設計取向令多雲、多邊緣部署企業面臨供應商鎖定風險。Equinix 中立立場與開放生態恰好構成差異化護城河。隨著代理式 AI 在企業端滲透率持續提升基礎設施層中立互連需求預計將同步放大 Distributed AI Hub 推出時機與市場節奏高度吻合。

同時亞太區市場亦尤其值得關注。香港作為全球重要金融及數據中心樞紐企業對低時延跨境連接與數據主權合規需求同步存在 Equinix 在香港數據中心佈局為本地企業提供直接受益啟用條件。

AI 基礎設施競爭新戰場已然成形

Distributed AI Hub 正式推出標誌著 AI 基礎設施競爭已從算力規模演進至生態整合能力新階段。對企業 CIO 與 CTO 而言評估 AI 基建投資時互連中立性、安全同步能力與跨地域一致性部署將成為不可忽視關鍵指標。Equinix 與 Palo Alto Networks 策略聯盟或將促使其他基礎設施供應商加速整合安全能力重塑市場格局。

未來隨著更多 AI 模型供應商與 GPU 雲端服務商接入 Distributed AI Hub 生態平台網絡效應將持續強化。值得追問是當 AI 代理成為企業營運核心驅動力基礎設施中立性究竟能為企業帶來多大議價空間與戰略自主權?

 

資料來源:Equinix 官方博客Equinix, Inc.IDC 國際數據資訊Palo Alto NetworksAlembic

read more
IT 基建企業趨勢業界消息

AWS 成立二十週年: 從三項服務到雲端帝國 重塑全球科技創業生態


AWS 成立二十週年: 從三項服務到雲端帝國  重塑全球科技創業生態

Amazon Web Services (AWS) 今日(2026 年 3 月 12 日)迎來成立 20 週年。2006 年初創時,AWS 只有 3 項服務,如今已擴展至超過 240 項,年收入突破 1,420 億美元(約港幣 1.1 兆元)。回顧當初,這個改變科技界遊戲規則的構思,其實源於 Amazon 內部工程師的日常痛點。

高成本阻礙創業 AWS 應運而生

2006 年之前,創辦科技公司的成本極高。初創企業需要自行購買實體伺服器及聘請專人維護,單是起步已要投入大量資金。日後擴展業務時,又要再花一筆錢購買硬件。當時只有資金雄厚的大機構才能負擔得起這些基礎設施,普通開發者難以競爭。

當時 Amazon 內部亦面對類似問題。工程師花費七至八成時間處理運算、儲存、資料庫與訊息傳遞等基礎設施,只剩下兩三成時間開發產品。時任行政總裁 Jeff Bezos 的首席幕僚長 Andy Jassy 經常聽到員工抱怨:「單是處理運算方案就花費了三個月。」公司管理層開始思考,如果開發者能將八成時間專注於創造產品價值,科技發展速度會有幾快。這個想法促成了 AWS 的誕生。

酒吧構思 Amazon S3 按用量收費

隨着 Amazon S3 儲存服務推出,個人開發者首次可以按用量付費,獲得以往只有大型企業才能負擔的儲存空間。初創公司毋須自建數據中心或購買伺服器,也能開發分析平台、AI 工具及大型資料庫等數據密集型應用程式。

AWS 副總裁兼首席布道師 Jeff Barr 回顧這段歷程:「2006 年 3 月的一個星期二,我按下 Amazon S3 上線網誌的發布鍵。當時它只是一個簡單的 API,設計概念類似網絡版的 malloc(動態記憶體分配)。現在它已支援串流影片以至太空探索等項目。」

Amazon S3 的初期設計並非在辦公室內完成,而是團隊在西雅圖國會山的 Six Arms 酒吧和西雅圖會議中心討論出來。團隊制定了 10 項技術準則,強調去中心化,並預設硬件故障是日常營運的一部分。這個系統目前已儲存超過 500 萬億個檔案,處理數百 Exabyte 的數據。

南非 8 人團隊與首位產品經理

Amazon S3 推出 5 個月後,Amazon Elastic Compute Cloud (Amazon EC2) 於 2006 年 8 月 26 日上線。這項服務初期由 8 名遠在南非開普敦的工程師開發。他們利用辦公室角落幾部手提電腦,模擬出整個數據中心架構,解決了總部西雅圖團隊的技術難題。

另一方面,現任 AWS 行政總裁 Matt Garman 於 2005 年讀 MBA 期間以實習生身份加入。當時 Andy Jassy 因為保密協議而無法透露工作內容,只表示這是一項具備高技術含量的新業務。結果 Matt 選擇了這個未知的部門,並在 2006 年成為 AWS 首位產品經理。當時全球銷售團隊只有 3 人,他需要兼顧撰寫產品說明、制定收費標準、主持產品命名會議等工作,同時協助開發核心服務 Amazon Elastic Block Store (Amazon EBS)。他表示,團隊當初純粹出於對開發技術的熱情,完全沒預料到 AWS 日後會發展至如此規模。

20 年發展:由 3 項服務增至 240 項

2006 年全球上網人數約 11 億,主要使用桌面電腦;現在用戶數已達到 56 億,並轉向以流動數據上網為主。AWS 提供的服務由 3 項增加至超過 240 項。以前企業需要花幾星期訂購和安裝實體伺服器,現在利用無伺服器和 AI 技術,只需幾毫秒就能完成資源調配。根據市場數據,估值超過 10 億美元(約港幣 78 億元)的初創「獨角獸」企業,亦由 2006 年的零家,增加至超過 1,600 家。

AWS 副總裁兼技術總監 Werner Vogels 博士指出,2006 年的改變在於降低了開發門檻。以前企業需要巨額資金才能競爭,AWS 讓普通學生也能獲得與跨國公司相同的運算能力。他期望未來的 AI 技術也能同樣普及。

AI 技術成未來發展重心

Werner Vogels 博士加入 Amazon 後,一直負責推動系統的分散式架構發展。而從 2004 年至 2024 年底,Jeff Barr 在 AWS 網誌上合共發表了超過 3,300 篇文章,總字數達 150 萬字。他亦於 AWS 成立 20 週年之際正式宣告退休。

過去 20 年,AWS 將需要大量資金購買硬件的模式,轉變為按量收費的雲端服務。面對近年的生成式 AI 熱潮,AWS 亦正計劃將雲端運算的普及模式應用於 AI 發展,這將影響未來初創企業的營運方式。

 

資料來源:  press release

read more