close

雲端服務

中小企雲端專區

Ruijie Cloud 一站式雲端管理系統 支援手機 APP、Web GUI

近年,網絡雲端管理發展起來,各大網絡品牌都有自家的雲端管理系統,加速了雲使用的步伐。但現在大部分品牌都只有特定系列產品才能夠支援雲端管理,有的品牌雲端管理就功能並不齊全,又或者 License 的年費太高,中小企業難以負擔。巿場上還有什麼品牌可以給用家選擇呢?以下介紹的 Ruijie Cloud 網絡雲端管理系統,是少數向中小企巿場支援全企業級功能的網絡雲端系統。

▲ Ruijie Wi-Fi

 

企業級品牌 知名網絡供應商

網絡品牌供應商 Ruijie 為商用企業提供網絡解決方案,除商用巿場外,政府 Wi-Fi.HK 和眾多的 NGO 也有選用 Ruijie 產品,全港亦有超過 400 間中小學正採用 Ruijie 網絡方案。上年度 Ruijie 便推出了針對中小企業巿場的牌子 — Reyee,產品質量維持高水平兼附設適合中小企使用的企業級功能。

 

 

獨家自組網  3 分鐘自動配置設定完成

組裝 Ruijie 產品不會有太大難度,原因是 Ruijie 產品有個獨特功能名叫「自組網 SON : Self-Organizing Network」,只要使用全 Reyee 產品,3 分鐘內可以全部產品自動添加上 Ruijie Cloud,包括 Router、Switch、Gateway 和 Access Point。往後的功能設置亦都會自動套上設備上,大幅減少設置時間和所需要的技術門檻。如果設備裡有支援 ONVIF 的 CCTV Camera ,Ruijie Cloud 會自動 discover 並添加上雲端。

以下參考影片展示了 Ruijie 曾經試過不用 3 分鐘就能使用自組網功能去設置全部 150 台 AP

https://www.youtube.com/watch?v=TPCqAD8DR_k

 

▲Ruijie Cloud 自動 discover Reyee 和 Camera,紅色連結代表有問題

 

手機網絡管理 遙遠設置

企業級的管理系統,由於功能複雜和定位原因,多數需要用獨立軟件或 Web GUI 登入系統去操作,就算有手機 App 也只會提供整體資訊為主 。Ruijie Cloud 給用家驚喜的地方是它的手機 App,除了必有的整體資訊如網絡狀態、設備的使用資料和用家使用量外,更加貼心地提供設備的內裡資訊,比如每一個網埠的連結應用和使用狀況,使管理者可以更快地偵查到每台設備的實際情形。

▲ Ruijie Cloud 提供豐富網絡資訊

 

系統的 alarm system 可以設計不同門檻和組合,當有異常時,就透過 EMAIL 和 App pop up 主動去通知管理者,再進入 App 裡查看設備狀況。App 裡已經有常用的 Wi-Fi 設置,網絡限制等設定,管理者可以於手機 App 內作出即時調整,十分方便。如果項目需要其他技術人員協助管理,亦設有 Share Tenant 功能,可以提供到 Read/Write 和 Read only 的選擇,共同管理項目。

▲ 全面企業級功能

 

企業功能 節省運維成本

上面已介紹過 Ruijie Cloud 有提供企業級功能讓中小企使用,另外他們有幾個貼地功能,相信不少中小止都有這需求 :

Remote PoE Reboot : 當終端設備如 Wi-Fi 或者 CCTV Camera 有不穩定時,一般的做法是派遣工程司到現場做 onsite inspection,但這樣做的成本十分高昂,而且 8 成的不穩定問題都只需要重啓設備就可以。若果使用 Ruijie Cloud,當管理者知道終端設備有異常時,可以先透過 Cloud 去重啓該設備的網絡電接阜,如果問題解決就可以省郤派遣工程司到現場處理,這樣就更有效率,減省運維成本。

 

Long Distance : 眾所周知一般 PoE LAN 的傳輸距離限制是 100 米,如果要連接超過 100 米,就需要添加 PoE 交換機,增加運維成本。Ruijie Cloud 有一個 Long Distance 功能,可以把連接阜的傳輸速度限制於 10MB 內,換來達到 200 米的傳輸距離。對於一些有特別距離需求的 CCTV 項目,這功能就會大派用場。

 

AI Optimization / Diagnose : 網絡不穩定或者異常,有可能是設置問題,也有可能是外在因素影響,但一般情況下,如果没有相關專業知識者或者現場做詳細測試的話,是很難檢測到問題所在。Ruijie Cloud 有一個 AI Optimization 功能,可以一鍵幫助改善設備的配置,比如用大數據分析選擇最暢通的網絡頻普,調較合適的訊號強弱等等。另一個功能是 AI Diagnose,它可以協助你分析從手機直至 Internet 間的連接是否有硬體或者設置異常,並且提供解決建議,尤如一名專業網絡工程師從旁協助。

▲ 一鍵偵查和改善系統配置

 

 

 

Ruiji Cloud license 終身免費

很多品牌的雲端管理是需要額外收取 License Fee,每年以 Subscription 型式或者按產品型號和數量去收取費用。而 Ruijie cloud 則向所有客戶提供終身免費設備無上限,和企業級功能的網絡雲端管理系統,這策略十分關顧只用上有限設備的中小企業,幫助他們大大減輕運維成本。

▲ Ruijie Cloud 比巿場對手牌子的雲端有更強大的功能且免費

 

Google 雲端系統 保證安全性

雲端管理的無間斷服務能力和資料安全一向是大眾關注焦點。香港區所使用的 Ruijie Cloud 是設置於 Singapore Google 內, 已通過 99.99 的認證,另外於俄羅斯亦有設置高可用性解決方案,雲端系統的穩定性有所保證。對於某些行業如酒店和銀行有著高度嚴格的私人條例規範,Ruijie Cloud 亦已經通過歐盟對私隱保障的嚴格需求 (GDPR),客戶不用擔心資料外洩。

 

總結

有賴於 Ruijie Cloud 的友善介面,產品設置和測試過程都可非常順利,相信網絡新手都能夠輕易掌握。而 Ruijie Cloud 是完全免費和無上限使用,所以中小企業若使用 Ruijie Reyee 產品的話,只需付上硬件費用就能用 Ruijie Cloud,整個配套相當吸引。

 

 

測試產品:

RG-EG210G-E

  • 10 個 Gigabit Port,uplink 1000Mbps
  • 最大支援 200 台設備同時使用
  • 預設 2 WAN,最大支援 4 WAN
  • 預設三個網段
  • 支援網絡流量控制,行為管理
  • 支援 IPSec VPN,DDNS

 

▲ RG-EG210G-E 全能中小企 Router

 

RG-ES209GC-P

  • 8 個 Gigabit PoE/PoE+ Port,1 個 Gigabit Uplink Port
  • 120W 最大 PoE 輸出功率
  • 支援 Ruijie cloud
  • 4K MAC 容量
  • 支援 Loop Prevention、Remote PoE Reboot、Long Distance 功能

 

 

▲ RG-ES209GC-P 高性能交換機

 

 

 

RG-RAP2260(G)

  • 2 個 Gigabit LAN Port
  • AX1800 Wi-Fi 6 ,2×2 MIMO
  • 4G : 574Mbps / 5G : 1201Mbps,共提供 1.775Gbps
  • 內置藍牙 0
  • 支援 Layer 2,3 Roaming

 

 

▲ RG-RAP2260(G) 全能中小企 Gateway

 

read more
IT 基建資訊保安雲端服務

AWS 強化雲端韌性:Route 53 新功能承諾 US-East-1 故障期間 60 分鐘恢復 DNS 控制

AWS 於 2025 年 11 月 26 日宣布推出 Route 53「加速復原」(Accelerated Recovery)新功能。這項功能承諾在美國東部維珍尼亞區域(US-EAST-1)發生服務中斷時,企業可在 60 分鐘內恢復 DNS 記錄管理能力。此創新功能直接回應了一個月前該區域長達 15 小時的大規模故障事件,當時導致數百萬個應用程式陷入癱瘓。新功能免費提供,專為銀行、金融科技及 SaaS 等受監管行業設計,讓企業即使在區域性災難期間,仍能調整 DNS 設定、配置備援資源或重新導向流量。

十月教訓催生技術突破

2025 年 10 月 19 日晚間 11 點 49 分(太平洋時間),AWS US-EAST-1 區域內部 DNS 系統崩潰,導致該區域所有六個可用區域(Availability Zones)同步失效。這次事故暴露了一個致命盲點:即使企業將工作負載分散至多個可用區域,當區域層級的 DNS 服務故障時,所有防護措施形同虛設。根據 Ookla 統計,事故發生後兩小時內湧入超過 400 萬次故障通報,影響包括 DynamoDB、Lambda 等核心服務的端點解析。AWS 資深解決方案架構師 Micah Walter 坦承,受監管行業客戶明確表達需求:「他們需要確信能在意外的區域性中斷期間進行 DNS 變更,以便迅速配置備援雲端資源或重新導向流量」。

這次故障最令人挫折之處,在於 Route 53 的全球分散式資料平面(Data Plane)實際上持續正常運作,DNS 查詢解析、健康檢查及自動故障轉移功能均未中斷。問題核心出在控制平面(Control Plane):企業無法修改 DNS 記錄、無法調整路由政策、無法配置新基礎設施。有外媒報導指出,對於所有服務部署在 US-EAST-1 的企業而言,這 15 小時處於「徹底無助狀態」。

跨區域自動故障轉移機制運作原理

加速復原功能的技術核心,在於將公開託管區域(Public Hosted Zone)的副本,從 US-EAST-1 主要區域複製至俄勒岡州的 US-WEST-2 區域。當 AWS 偵測到維珍尼亞區域服務長時間無法使用時,系統會在 60 分鐘內自動執行故障轉移,將控制平面操作重新導向至俄勒岡區域,過程完全無需人手介入。在故障轉移期間,企業可繼續使用相同的 Route 53 API 端點執行關鍵操作,包括 ChangeResourceRecordSets(變更記錄集)、GetChange(查詢變更狀態)、ListHostedZones(列出託管區域)及 ListResourceRecordSets(列出記錄集)。

AWS 技術文件特別警示一個關鍵風險:「擱置變更」(Stranded Changes)現象。在故障轉移發生前,若 API 已回傳 HTTP 200 確認接收 DNS 變更請求,但維珍尼亞區域隨即故障,這些變更將滯留在主要區域無法傳播至全球資料平面。企業必須透過 GetChange API 檢查變更狀態是否為「PENDING」,並在故障轉移完成後手動重新提交。當主要區域恢復後,系統會自動執行故障回復(Failback),但未重新提交的擱置變更將被永久捨棄。

DNS 行業競爭格局與合規壓力

AWS 此舉正值 DNS 服務市場競爭白熱化之際。根據 2025 年最新評測,Cloudflare DNS 在全球平均回應時間為 10 毫秒,持續領先 Google DNS 的 20 毫秒。Cloudflare 的 1.1.1.1 服務提供內建惡意軟件防護與家長控制功能,而 Google DNS (8.8.8.8) 則主打可靠性與廣泛採用率。然而 AWS 的差異化策略聚焦於控制平面韌性,這正是 2025 年 10 月事故揭露的行業痛點。

受監管金融機構面臨的合規要求格外嚴苛。根據 AWS 金融服務合規框架,銀行業必須遵守 GDPR、PCI-DSS 等法規,資料儲存與處理流程需符合嚴格稽核標準。Infoblox 研究顯示,使用單一跨雲端 DNS 解決方案的企業,網絡錯誤減少 75%、雲端故障減少 44%,且故障修復時間縮短 38%。DNS 被視為企業的「心跳服務」:一旦失效,整個網絡及其連接的所有裝置將陷入癱瘓。

香港與亞太區企業的策略啟示

對香港及亞太區企業而言,這項功能帶來重要啟示。HKT Enterprise 早在 2019 年即提供業務持續性解決方案,強調快速部署以減少營運中斷。然而多數企業仍依賴單一區域架構,未充分準備跨區域災難復原計劃。DNS 專家建議,若需要有效的故障轉移能力,TTL(存活時間)應設定為 60 至 300 秒的低數值,確保 DNS 記錄更新時變更能快速生效。

雲端災難復原解決方案的關鍵特性包括:自動化 DNS 更新、N:1 拓撲(平時保持復原伺服器離線以降低成本)、以及跨平台相容性。對金融機構而言,維持跨環境的一致安全與合規態勢至關重要。AWS 的加速復原功能簡化了這一流程,但企業仍需進行嚴謹的災難復原演練,驗證故障轉移程序在高壓情境下的可靠性。

零成本部署與未來趨勢

企業可透過 AWS 管理主控台、CLI、SDK 或基礎設施即程式碼工具(如 CloudFormation、CDK)啟用加速復原功能,整個啟用過程可能需時數小時。AWS 強調此功能完全免費,無額外費用,目前僅支援公開託管區域,私有託管區域暫不適用。CloudFormation 用戶可自動追蹤 DNS 變更的複製狀態,利用 GetChange API 確認變更達到「INSYNC」狀態後才完成更新,若維珍尼亞區域故障,只需重試相同操作即可在故障轉移完成後重新提交變更。

這項功能標誌著雲端服務供應商從「追求極致可用性」轉向「承認現實並提供具體 RTO 保證」的策略轉變。當企業面對 10 月份那種災難性事故時,60 分鐘的復原時間可能意味著數百萬美元(約數千萬港元)營收損失與數十萬美元(約數百萬港元)成本的差異。未來企業架構師在設計多雲或混合雲策略時,DNS 控制平面的韌性將與資料平面的可用性同等重要。對於依賴 AWS US-EAST-1 部署關鍵業務的企業,啟用加速復原功能已不再是選項,而是確保業務持續性的必要投資。

read more
IT 基建雲端服務

Amazon Leo 發佈進軍衛星網路高達 1 Gbps 下載 高度整合 AWS 生態挑戰 Starlink

Amazon 於 2025 年 11 月 23 日正式公布其衛星網絡服務品牌「Amazon Leo」(前身為 Project Kuiper 計劃),同步發表企業級終端機 Leo Ultra,提供高達 1 Gbps 下載及 400 Mbps 上載速度,直接瞄準 SpaceX 旗下 Starlink 在全球衛星網絡市場的領導地位。這款配備 Amazon 自研晶片的全雙工相位陣列天線,預計於 2026 年正式商轉,目前已有超過 150 顆衛星在軌運行並展開初步網絡測試。Amazon 此舉標誌著科技巨頭正式從雲端服務延伸至太空基礎建設,將為企業客戶提供結合 AWS 雲端運算的端對端解決方案。

企業級硬件規格突破傳統衛星網絡限制

Leo Ultra 終端機採用 20 吋 x 30 吋 x 1.9 吋的輕薄設計,整合防水外殼與散熱系統,專為極端環境下的企業部署而研發。Amazon 消費者與企業業務副總裁 Chris Weber 表示,Amazon Leo 為在具挑戰性環境中營運的企業帶來機遇,從衛星網絡設計到高效能相位陣列天線組合,均專為滿足最複雜的商業與政府客戶需求而建立。這款終端機搭載 Amazon Leo 自研矽晶片,支援低延遲應用如視像會議、實時監控及雲端運算,被 Amazon 稱為「目前生產中最快的商用終端機」。

除了高階的 Ultra 型號,Amazon 同步推出兩款不同規格產品以覆蓋多元市場需求。Leo Pro 終端機提供最高 400 Mbps 下載速度,而小型化的 Leo Nano 則支援最高 100 Mbps 連線,三款產品均採用「即插即用」設計與自動定向天線技術,大幅降低技術門檻。相較於傳統地球同步軌道(GEO)衛星系統,低軌道(LEO)衛星群能提供更低延遲與更高頻寬,近期加州大學聖地牙哥分校與馬里蘭大學的研究更揭露傳統 GEO 系統存在未加密通訊的嚴重安全漏洞。

私有網絡服務建立差異化競爭優勢

Amazon Leo 的核心競爭策略並非單純比拼網速,而是深度整合 AWS 雲端生態系統。服務包括「Direct to AWS」功能,允許企業客戶直接連接雲端服務而無需經過公共網絡,以及「Private Network Interconnects」提供數據中心的專線連結。這種衛星與雲端的無縫整合模式,讓偏遠地區的企業能以與都市相當的效能存取 Amazon EC2 運算資源與 S3 儲存服務,類似現有衛星營運商 Intelsat 與 SES 透過 AWS Direct Connect 提供的託管連線服務。

目前已有 JetBlue 航空、Hunt Energy Network、澳洲國家寬頻網絡(NBN)、L3Harris 及 Connected Farms 等企業夥伴加入企業預覽計劃。這些早期採用者涵蓋航空、能源、製造、運輸及媒體等關鍵產業,反映企業級客戶對可靠偏遠連線的迫切需求。Amazon 目前正向預覽計劃參與者發送 Leo Pro 與 Leo Ultra 終端機進行實地測試,但尚未公開終端機定價策略。

衛星網絡市場進入關鍵競爭階段

全球 LEO 與 GEO 衛星網絡市場預計將從 2025 年的 145.6 億美元(約港幣 1,135.7 億元)成長至 2030 年的 334.4 億美元(約港幣 2,608.3 億元),年複合成長率達 18.1%。消費者寬頻用戶數預期從 2025 年的 620 萬增長至 2030 年的 1,560 萬。然而 Amazon Leo 面臨的是已具顯著先行者優勢的 Starlink——SpaceX 已於 2025 年 10 月前發射超過 2,500 顆衛星,截至 2025 年 11 月擁有超過 800 萬用戶,2025 年預估營收達 118 億美元(約港幣 920.4 億元),佔 SpaceX 總營收約 70%。

Starlink 的垂直整合優勢明顯:自行製造衛星、使用自家火箭發射、控制從地面站到用戶終端的完整技術堆疊。這種規模經濟已將終端機成本從發布時的 3,000 美元(約港幣 23,400 元)壓低至目前的 600 美元(約港幣 4,680 元),並持續透過衛星群密度創造網絡效應來強化服務品質。相較之下,Amazon Leo 目前僅有 150 顆衛星在軌,計劃最終部署超過 3,000 顆衛星才能實現全球覆蓋。

亞太市場成為 LEO 衛星服務戰略要地

亞太地區預計將在 2025 年佔據全球衛星網絡市場 30.7% 的佔有率,成為成長最快的區域市場。印度、澳洲及東南亞國家的廣闊地理範圍與多樣地形,使衛星網絡成為縮小數碼鴻溝的有效解決方案。中國正透過國網計劃推動國家級 LEO 衛星群,規劃部署超過 13,000 顆衛星。亞太地區超過 50% 至 60% 人口居住在鄉村地區,政府資助的寬頻擴展計劃持續增加,為衛星服務營運商創造強勁需求。

對於企業客戶而言,Amazon Leo 與 Starlink 的競爭將為市場帶來更多選擇與價格壓力。企業網絡部門預計將在 2025 年主導衛星網絡市場,能源、海事及物流等產業需要安全數據傳輸、雲端存取與物聯網支援。隨著終端機成本下降與 SD-WAN 整合技術成熟,企業採用衛星網絡的障礙正逐步消除。Amazon 若能成功整合其全球 AWS 基礎設施與 Leo 衛星網絡,將在企業市場建立獨特的競爭護城河,但能否在 Starlink 已建立 8 年先發優勢的市場中快速追趕,仍有待 2026 年正式商轉後的市場驗證。

資料來源: About Amazon CNBC The Verge MarketsandMarkets Sacra

 

read more
資訊保安雲端服務

Cloudflare 讓全球 4 小時大死機原因解讀: 企業如何汲取教訓及防範未來

2025 年 11 月 18 日協調世界時(UTC)11:20,全球約 20% 網站同時陷入癱瘓。從社交平台 X 到 AI 工具 ChatGPT、從音樂串流 Spotify 到各大電商平台,數以萬計網站在四小時內無法連接。這場影響極廣的互聯網基礎設施故障,源於內容傳遞網絡(CDN)巨頭 Cloudflare 的一個資料庫權限配置變更。事件揭示三大警訊:互聯網基礎設施高度集中化的風險、單點故障的連鎖效應,以及企業對第三方服務過度依賴。本文將深入剖析技術根源、量化經濟損失,並提出企業應對策略。

技術漏洞引發全球危機 從 Bot Management 到網絡崩潰

Cloudflare 官方披露,故障源自 Bot Management 系統特徵檔案生成邏輯中的潛在漏洞。當資料庫系統權限變更後,該系統輸出的特徵檔案出現重複條目,導致檔案體積增加一倍。這個看似微小的配置調整,透過 Cloudflare 遍布全球的網絡迅速擴散至所有機器。

關鍵問題在於網絡路由軟件對特徵檔案設有大小限制,當接收到超出預期的雙倍大小檔案時,軟件隨即崩潰。Cloudflare CTO Dane Knecht 證實,這是 Bot Management 底層服務中的潛在漏洞,在例行配置變更後開始崩潰,並連鎖擴散至整個網絡和其他服務。Cloudflare 明確指出這並非網絡攻擊或惡意活動所致,而是內部配置管理缺陷的典型案例。

網絡監測公司 Kentik 互聯網分析總監 Doug Madory 的數據顯示,沒有證據表明這是分散式阻斷服務(DDoS)攻擊。此判斷相當重要,因為 Cloudflare 本身就是領先的 DDoS 防護服務供應商,若遭受攻擊將極為罕見。故障真正根源在於自動化配置系統缺乏充分的安全閥機制,未能在檔案異常時觸發警報或執行還原程序。

從 UTC 11:20 首次出現問題到 14:42 宣布解決,Cloudflare 用了約 4 小時 10 分鐘才完全恢復服務。期間受影響網站顯示「Internal Server Error」錯誤頁面,或者出現「Please unblock challenges.cloudflare.com to proceed」提示。Cloudflare CTO 在 X 平台公開致歉指:「我不想轉彎抹角:今天早些時候,Cloudflare 網絡的問題令客戶和更廣泛的互聯網失望了。」

互聯網基礎設施的「阿喀琉斯之踵」:集中化帶來的系統性風險

Cloudflare 在 CDN 市場擁有約 40.92% 市場佔有率,為全球超過 249 萬家公司提供服務。在所有使用 CDN 或反向代理的網站中,79.9% 依賴 Cloudflare。這種市場主導地位使其成為互聯網生態系統中的關鍵節點,也形成單點故障的巨大風險。

網絡安全公司 Check Point 公共部門負責人 Graeme Stewart 評論指,在故障期間,新聞網站、支付系統、公共資訊頁面和社區服務全部凍結。這並非個別機構自身失敗,而是因為它們共同依賴的單一層級停止回應。這精準指出問題核心:當少數幾家公司控制著支撐數百萬網站的關鍵基礎設施時,任何單一供應商的問題都會造成互聯網大範圍癱瘓。

科羅拉多大學 Boulder 分校專家在分析類似 AWS 故障時指出,此類故障通常源於人為或配置錯誤,這些錯誤在大規模營運環境中被自動化系統放大。ThousandEyes 的 2025 年上半年故障模式分析顯示,緊密互聯的系統會建立故障放大點,當問題發生時,由於緊密耦合和依賴鏈,可能在全球範圍內產生連鎖效應。

是次 Cloudflare 故障波及範圍極廣。受影響主要服務包括 OpenAI 的 ChatGPT 和 DALL-E、社交平台 X、擁有超過 1 億用戶的設計工具 Canva、Spotify 音樂串流、遊戲《League of Legends》和《RuneScape》、New Jersey Transit 流動票務應用程式,以及數千個電商網站、新聞機構和商業應用程式。監測網站 Downdetector 記錄到 X 平台在高峰時段收到 9,706 份故障報告。

 

經濟代價與企業韌性:數億美元損失背後的深層教訓

雖然難以精確量化,但專家估計 2025 年 11 月 18 日 Cloudflare 故障造成的全球經濟影響達數億美元(約數十億港元)。這個數字僅是直接收入損失的保守估算,未包含長期影響。研究顯示,88% 用戶在經歷糟糕體驗後不太可能再次連接該網站。對於電商平台而言,四小時停機意味著完全錯失購物高峰期;對於訂閱制服務,則意味著服務等級協議(SLA)違約和潛在法律責任。

AWS 在 2025 年 10 月 20 日發生的類似故障,影響範圍雖較小,但專家估計經濟影響達數千億美元(約數兆港元)。相比之下 Cloudflare 故障持續時間較短但影響範圍更廣,突顯 CDN 基礎設施的關鍵性。New York City Emergency Management 在事件期間發布聲明稱,正監測 Cloudflare 服務中斷對城市服務的潛在重大干擾,但當時尚未收到重大資源請求。

停機的真實成本遠超即時收入損失:客戶信任侵蝕、搜尋引擎最佳化(SEO)懲罰、生產力損失。Google 已確認網站可用性是排名因素之一,長時間停機可能被解釋為網站質素不佳的信號。對於依賴 ChatGPT 進行內容創作或 Canva 進行設計的企業,員工完全無法執行核心工作職能,導致工作停擺。

ThousandEyes 的 2025 年數據顯示,美國為中心的網絡故障佔全球比例在年初達到 55% 峰值,隨後逐漸下降至 6 月底的 39%。這趨勢反映全球互聯網基礎設施的複雜性和脆弱性正在增加。從 1 月至 6 月,ThousandEyes 監測到全球範圍內的網絡故障呈現三大模式:配置相關故障、緊密耦合系統的連鎖失效,以及區域故障透過服務依賴產生全球影響。

從 Cloudflare 事件看技術債與營運韌性

此次故障暴露三個對企業高層至關重要的管理盲點,這些問題往往在技術層面被忽視,卻對業務持續性構成致命威脅。

配置變更的連鎖反應與治理缺口

Cloudflare 於 UTC 11:05 部署資料庫存取控制變更,僅 23 分鐘後的 UTC 11:28,客戶環境便開始出現首批錯誤。這個時間差揭示現代雲端基建的脆弱性:看似常規權限管理改良,因一個未經充分測試的假設——查詢語句未過濾資料庫名稱——導致特徵檔案從約 60 個特徵暴增至超過 200 個硬編碼限制。Bot Management 系統為效能改良預分配最多 200 個特徵記憶體,當時實際使用約 60 個。這個 3 倍以上安全邊際理論上應該足夠,但設定錯誤令特徵數量增倍後突破這「不可能達到」的上限。

自動化系統的雙刃劍效應

該特徵檔案每 5 分鐘自動生成並快速傳播至整個網絡,這種設計原為快速應對互聯網流量變化及新型機械人攻擊。然而正是這種「快速反應」機制將局部問題在分鐘級擴散至全球。更棘手的是 ClickHouse 叢集正逐步更新權限管理,壞數據只在已更新節點上生成,導致每 5 分鐘有機會產生好或壞的設定檔。這種間歇性故障模式極具迷惑性,最初令團隊誤判可能遭受超大規模 DDoS 攻擊,甚至當狀態頁面(完全獨立於 Cloudflare 基建)剛好同時出現錯誤時,更加深遭受針對性攻擊的懷疑。

從企業管理角度分析,這突顯自動化部署的治理挑戰:速度與安全的平衡點在哪裡?Cloudflare 作為全球頂尖基建公司擁完善監控體系,仍花費近 3 小時才確定根本原因。團隊於 11:32 開始人手調查,11:35 建立事件響應,但直到 13:37 才確信 Bot Management 設定檔是觸發因素,14:24 才停止自動部署新設定。對於資源較少企業,這種診斷時間可能更長。

代價遠超表面損失:信任成本與合規風險

除了核心 CDN 和保安服務,此次故障波及 Turnstile 驗證碼服務、Workers KV 鍵值儲存、Access 身份驗證、Dashboard 控制面板,甚至 Email Security 垃圾郵件檢測準確度也暫時下降。特別值得行政總裁關注的是 Access 服務的影響:從事件開始直到 13:05 啟動回復期間,絕大多數用戶身份驗證失敗,所有失敗驗證嘗試都顯示錯誤頁面,意味這些用戶從未到達目標應用程式。對於依賴 Cloudflare Access 作為零信任架構入口的企業,這意味員工完全無法存取內部系統長達近 2 小時。

Cloudflare 事後聲明承認:「今天是自 2019 年以來 Cloudflare 最嚴重故障。過去 6 年多來,我們沒有經歷過另一次導致大部分核心流量停止流經網絡的故障。」這個坦誠表態既是對客戶交代,也是對整個行業的警示。對於企業決策者而言,關鍵問題不是「如何避免供應商故障」,因為沒有任何供應商能保證 100% 可用性,而是「當關鍵供應商故障時,我的業務能持續多久?」

行政總裁應在下週董事會提出的三個問題

依賴鏈全景圖:我們是否清楚掌握所有關鍵業務流程完整技術依賴鏈?包括直接供應商、間接依賴及單點故障節點?

災難演練頻率:上一次進行主要雲端服務供應商故障演練是什麼時候?測試範圍是否涵蓋 CDN、DNS、身份驗證等基建層?

故障容忍度量化:我們的 SLA 承諾與實際韌性能力是否匹配?4 小時全球基建故障會對收入、客戶留存率及合規狀態造成多大影響?

Cloudflare 承諾將採取四大補救措施:強化設定檔接收驗證機制、啟用更多全域功能緊急開關、消除錯誤報告壓垮系統資源可能性、審查所有核心代理模組錯誤條件失效模式。這些技術改進值得讚賞,但對其他企業而言,真正教訓是:不要等到供應商改進後才行動,而應立即評估自身韌性缺口並建立多層防護機制。在高度互聯數碼經濟中,技術韌性已不再是 CTO 職責,而是行政總裁必須直接監督的戰略優先事項。

企業應對之道 多雲架構與災難恢復策略的必要性

科羅拉多大學專家建議採用多雲端架構策略,使用多個雲端服務供應商(如 AWS、Google Cloud 和 Microsoft Azure)來託管服務,而非僅依賴單一供應商。這種方法有助確保若一個供應商遭遇故障,其他供應商可保持系統運行。然而,要完全消除風險仍然困難重重。

DEV Community 分析指出,CDN 集中度風險真實存在,近期故障證明這問題不會消失。建議企業實施多 CDN 策略,將流量路由到兩個或更多 CDN 供應商,若其中一個失效,另一個可無縫繼續提供內容服務。這除了能降低停機風險,亦可透過為每個區域或使用案例選擇最佳 CDN 來改善全球效能。

Fastly 最近發布的解決方案指南建議,對某些組織而言,最佳解決方案是混合或多 CDN 方法。這種策略結合內部網絡優勢與 CDN 服務的全球覆蓋和可擴展性。多 CDN 設定透過冗餘增強韌性、減少對單一供應商依賴並改善效能。

不過多雲端或多 CDN 策略並非萬能。企業需要建立完善災難恢復程序並定期測試。許多受影響服務在故障期間發現,其「備份計劃」僅停留在理論層面而非實際可操作。同時許多受影響服務(如 Downdetector 本身)並非 Cloudflare 直接客戶,而是透過其託管供應商或其他服務間接依賴 Cloudflare。理解完整的依賴鏈至關重要。

基礎設施專家一致認為,即使是最精密、資源最充足的基礎設施供應商也會經歷故障。Cloudflare 擁有 40% 以上市場佔有率和良好聲譽,卻未能阻止配置錯誤連鎖演變為全球性故障。這提醒所有企業:依賴任何單一供應商——無論聲譽多麼良好——都會為關鍵任務應用程式帶來不可接受的風險。

監管思考與未來展望:互聯網基礎設施治理的新挑戰

Cloudflare 在 2025 年第三季互聯網中斷總結報告中指出,全球範圍內觀察到的互聯網中斷源於政府指令性關閉、電力故障、電纜切斷、網絡攻擊、地震、火災和技術問題。此次 11 月 18 日的故障雖然是技術問題,但其影響規模超過許多物理性基礎設施損壞事件,突顯數碼基礎設施監管的迫切性。

當前互聯網基礎設施治理模式面臨根本性挑戰。少數幾家私營公司控制著關鍵互聯網基礎設施,卻缺乏相應公共監督和問責機制。Cloudflare 在官方聲明中表示:「鑑於 Cloudflare 在互聯網生態系統中的重要性,我們任何系統的任何故障都是不可接受的。我們的網絡有一段時間無法路由流量,這對團隊每個成員來說都是深刻的痛苦。」

Cloudflare 在事件期間相對透明的溝通——承認問題、提供更新並承諾詳細事後分析——有助在中斷期間維持信任。這種透明度值得肯定,但僅靠自律顯然不足。隨著互聯網成為關鍵基礎設施,其可靠性不僅依賴技術,還依賴謹慎設計、營運紀律以及供應商與客戶之間的共同責任。

展望未來,企業需要將互聯網基礎設施韌性提升至董事會層面的戰略議題。這不單是 IT 部門的技術問題,更是影響業務連續性、客戶信任和競爭力的核心商業風險。定期進行災難恢復演練、評估完整技術依賴鏈、投資多供應商策略,這些措施的成本遠低於一次重大故障造成的損失。

2025 年 11 月 18 日的 Cloudflare 故障不會是最後一次重大 CDN 故障。在高度互聯的數碼經濟中,企業必須為下一次不可避免的基礎設施中斷做好準備。問題不在於是否會再次發生,而在於企業是否已建立足夠韌性來承受衝擊並快速恢復。

資料來源:

Cloudflare Official Blog
NBC News
ThousandEyes Internet Report
University of Colorado Boulder
SecurityWeek

 

read more
IT 基建人工智能雲端服務

Microsoft 資料中心能耗危機:AI 熱潮下能源消耗突破歷史新高


Microsoft 資料中心能耗危機:AI 熱潮下能源消耗突破歷史新高

Microsoft 2024 年資料中心電力消耗達到驚人的 176 億美元(約港幣 1,372.8 億元),較前一年急增 4.4%,這個數字相當於美國全國能源消耗的 4.4%。隨著 OpenAI 等 AI 巨頭對運算需求的持續攀升,這場由人工智能驅動的能源革命正在重塑全球科技產業格局,也將企業推向前所未有的營運成本壓力與環境責任挑戰。本文將深入剖析 Microsoft 如何應對每年新增 3,000 個資料中心的能源需求、GPU 供應鏈瓶頸,以及這場 AI 基礎建設軍備競賽對全球企業的深遠影響。

AI 運算需求引爆能源消耗新紀錄

2024 年 Microsoft 資料中心的能源消耗突破歷史新高,電力成本高達 176 億美元(約港幣 1,372.8 億元),佔美國全國能源使用量的 4.4%。這個驚人的增長主要源於 OpenAI 等合作夥伴對 GPU 運算資源的龐大需求,單是 OpenAI 在 2025 年 11 月初就與 Amazon Web Services 簽署了價值 380 億美元(約港幣 2,964 億元)、為期 7 年的雲端服務協議,立即開始使用數十萬顆 NVIDIA GPU 進行 AI 模型訓練與推理運算。根據勞倫斯伯克利國家實驗室的預測,到 2028 年,AI 相關運算將佔用資料中心總電力消耗的 50% 以上,相當於美國 22% 家庭的年度用電量。

Microsoft 為了滿足這股需求,正以前所未有的速度擴張全球資料中心網絡。2025 年 11 月 11 日,Microsoft 宣布將在葡萄牙 Sines 港口城市投資 100 億美元(約港幣 780 億元)建設 AI 資料中心,計劃部署 12,600 顆先進 GPU,這是歐洲最大規模的 AI 基礎建設投資之一。此外 Microsoft 還與 NVIDIA、Nebius 等供應商簽署了多項價值數百億美元的 GPU 租賃協議,僅與 IREN 的合作就達 97 億美元(約港幣 756.6 億元),專門用於取得 NVIDIA 即將推出的 GB300 系列 GPU。這些協議突顯了一個殘酷現實:AI 運算需求的增長速度已經遠遠超越現有硬件供應能力。

全球資料中心建設正進入空前的擴張期。根據 Allianz Commercial 的報告,到 2030 年全球資料中心建設支出預計將達到 7 萬億美元(約港幣 54.6 萬億元),其中美國和中國是主要推動力。單一資料中心項目的建設成本已從過去的 2 億至 3 億美元(約港幣 15.6 億至 23.4 億元)飆升至超過 200 億美元(約港幣 1,560 億元),平均規模的設施成本也達到 5 億至 20 億美元(約港幣 39 億至 156 億元)。這場建設熱潮背後,是科技巨頭們對 AI 運算能力的瘋狂競逐,Amazon、Microsoft 和 Google Cloud 3 大雲端供應商在 2025 年第 2 季度就佔據了全球雲端營收的 3 分之 2。

能源效率困境:PUE 指標背後的真相

雖然 Microsoft 不斷強調能源效率改善,但實際數據揭示了一個更複雜的現實。2024 年,Microsoft 部分資料中心的電力使用效率(PUE)達到 1.56,這個數字意味著每消耗 1.56 度電,只有 1 度真正用於 IT 運算,其餘 0.56 度被冷卻系統、照明和配電損耗等非運算用途消耗掉。相比之下,業界先進的資料中心如美國國家再生能源實驗室(NREL)的設施已經實現年均 PUE 1.036 的卓越表現,甚至有部分設施達到 1.06 或更低。

這種效率差距並非技術能力不足,而是 AI 運算的特殊需求所致。配備高密度 GPU 的 AI 伺服器產生的熱量遠超傳統伺服器,需要更強大的冷卻系統來維持運作。NVIDIA 的 H100 和即將量產的 GB300 系列 GPU 雖然運算能力強大,但功耗和散熱需求也同步攀升。Microsoft 在 2025 年 10 月部署的首個大規模 GB300 生產集群,包含超過 4,600 個 NVIDIA GB300 NVL72 系統,每個機架配備 72 顆 Blackwell Ultra GPU,總計超過 330,000 顆 GPU,其散熱挑戰可想而知。

能源碳排強度問題更加嚴峻。根據 MIT Technology Review 的研究,美國資料中心使用的電力碳排強度比全國平均水平高出 48%。這是因為為了滿足 AI 運算的即時需求,資料中心往往需要依賴天然氣等碳密集型能源,而非再生能源。到 2028 年,AI 專用運算的年度電力消耗預計將達到 150 至 300 太瓦時(TWh),相當於從地球到太陽往返超過 16,000 次所需的能源。這個趨勢正在推動資料中心電力需求佔美國總電力消耗的比例從目前的 4.4% 激增至 12%。

GPU 供應鏈瓶頸與市場重組

NVIDIA 在 AI GPU 市場的主導地位正在創造前所未有的供應鏈壓力。根據 TrendForce 的研究,2025 年 Blackwell 系列 GPU 預計將佔 NVIDIA 高階 GPU 出貨量的 80% 以上,但即使如此仍無法滿足市場需求。台灣代工製造商如鴻海(Foxconn)、廣達(Quanta)、緯創(Wistron)和緯穎(Wiwynn)都在爭奪 GB300 伺服器的組裝訂單,鴻海更取得最大份額,生產配備 72 顆 Blackwell GPU 的最高規格版本。

這場供應鏈競賽已經改變了全球製造業的優先順序。業界消息指出,台灣代工廠正在將 AI 伺服器生產置於傳統消費電子產品(包括 Apple iPhone)之上,目標是在 2025 年 9 月開始大規模出貨 GB300 伺服器。根據 Gartner 的數據,AI 伺服器需求預計在 2025 年同比增長 147%,鴻海高層預期 AI 伺服器將佔其伺服器營收的 50% 以上,這標誌著從傳統消費電子到 AI 基礎設施的戲劇性轉變。

GPU 短缺問題至少將持續到 2026 年。雖然 NVIDIA 計劃在 2026 年第 3 或第 4 季度開始量產下一代 Rubin GPU,但這個時間點與當前 Blackwell Ultra GB300 的全面量產時間大致相同,甚至可能更早。OpenAI 等企業正在積極尋求替代方案,除了與 Microsoft 的長期合作外,還簽署了與 Oracle 價值 3,000 億美元(約港幣 2.34 萬億元)、與 AMD、Broadcom 等超過 1.4 萬億美元(約港幣 10.92 萬億元)的基礎設施開發協議。然而,由於 NVIDIA CUDA 平台和專用 Tensor Core 在 AI 工作負載上的性能優勢難以匹敵,市場對 NVIDIA GPU 的集中需求短期內難以改變。

企業競爭格局的深刻變革

Microsoft 與 OpenAI 的合作關係正在經歷重大調整,這將重塑整個 AI 產業的競爭格局。2025 年 9 月,雙方簽署了一份非約束性諒解備忘錄,解決了長達數月的合作緊張關係。根據新協議,Microsoft 在 OpenAI Group PBC 持有約 1,350 億美元(約港幣 1.053 萬億元)的股權(約 27% 股份),並保留對前沿模型的 Azure API 獨家權利直到宣布實現通用人工智能(AGI),但任何 AGI 宣告必須經過獨立專家小組驗證。Microsoft 的智慧財產權現已延長至 2032 年,並包含 AGI 後的模型,而 OpenAI 現在可以自由地在 Microsoft 之外尋求運算和部署合作夥伴。

這種開放性正在推動 AI 基礎設施市場的多元化。OpenAI 與 AWS 的 380 億美元(約港幣 2,964 億元)協議標誌著其首次在 Microsoft 之外建立大型雲端合作關係,將立即開始使用 AWS 位於美國的數十萬顆 NVIDIA GPU,未來還將擴展容量。AWS 總裁 Dave Brown 表示,他們正在為 OpenAI 建立完全獨立的運算容量,部分容量已經可用。與此同時,Microsoft 也在整合 Anthropic 的 Claude 模型,顯示獨家 AI 合作時代已經結束,取而代之的是多供應商企業 AI 時代。

這場 AI 基礎設施軍備競賽的規模令人震驚。OpenAI 在 2025 年宣布了總計約 1.4 萬億美元(約港幣 10.92 萬億元)的開發協議,涉及 NVIDIA、Broadcom、Oracle 和 Google 等多家企業。部分分析師開始質疑是否存在 AI 泡沫,以及美國是否擁有足夠資源來實現這些雄心勃勃的承諾。然而 NVIDIA 執行長黃仁勳在 2025 年 10 月 27 至 29 日華盛頓 GTC 大會上駁斥了 AI 泡沫的擔憂,同時公布了下一代產品路線圖。根據 Bain 的最新全球資料中心預測,超大規模科技公司在 2025 年的投資不但沒有如預期般縮減,反而顯著增加,並預計在未來幾年持續成長。

AI 時代的可持續發展挑戰

Microsoft 資料中心佔全球能源消耗 20% 的說法雖然誇大,但其能源足跡確實在快速擴大。根據 BloombergNEF 的預測,美國資料中心電力需求將從 2024 年的 35 GW 增加 1 倍以上,到 2035 年達到 78 GW,屆時將佔美國總電力需求的 8.6%,是目前 3.5% 的 2 倍多。實際能源消耗增長將更加陡峭,平均每小時電力需求將從 2024 年的 16 GWh 增至 2035 年的 49 GWh,接近 3 倍。

這種能源需求激增正在推動企業尋求多元化能源解決方案。科技巨頭們正在簽署新核電廠協議、重啟舊核電廠,並與公用事業供應商談判大規模合約。然而 資料中心開發面臨現實挑戰,從取得土地、電力和許可證,到應對複雜的建設流程,BloombergNEF 估計在美國,資料中心開發從初始階段到全面運營通常需要約 7 年時間,其中建設前期 4.8 年、建設期 2.4 年。這些時間和資源限制是預測相對保守的原因,而非對 AI 市場潛力的懷疑。

未來展望:效率革新與產業重塑

面對能源消耗和成本壓力,AI 產業正在探索多種技術路徑來提升效率。DeepSeek V3 的「專家混合」(Mixture of Experts)架構展示了一種創新方向,透過多個較小、專業化模型的協作網絡來改善訓練效率,為遏制快速攀升的電力需求提供了潛在解決方案。在冷卻技術方面,業界正在採用熱通道 / 冷通道隔離、液冷系統、室外空氣經濟器等策略來降低非 IT 設備的能源消耗。例如,某個俄勒岡州資料中心透過使用水側經濟器將 PUE 降至 1.06,甚至將伺服器室溫度從 65°F 提升至 75 至 80°F 這樣簡單的調整也能減少不必要的過度冷卻,節省電力並降低碳排放。

AI 驅動的設計和營運改良正在加速資料中心效率改善。專業工具和企業(如 Cove)正在運用智慧演算法協調複雜系統,使得在開發時間大幅縮短的情況下實現 1.1 左右的超高效 PUE 成為可能。這種方法除了滿足開發商對速度和投資報酬率的需求外,也回應了永續發展倡議者對更環保、精實資料中心的期待。此外 先進設施正在探索廢熱再利用,將伺服器產生的熱能用於為鄰近建築物或溫室供暖,雖然這不會直接計入 PUE,但能改善整體能源價值並支持更廣泛的永續目標。

工作負載模式的轉變也在重塑基礎設施策略。根據 Bain 的 分析,AI 工作負載正從單純的模型訓練轉向更加重視大規模推理,這部分源於企業 AI 應用案例的明確進展。測試時運算(test-time compute)正在重塑基礎設施策略、經濟效益和架構,對資料中心託管與自建、晶片多樣性和電力配置都產生重大影響。雖然超大規模企業的投資在 2025 年顯著增加並預計持續成長,但他們也更加注重資本效率,在新部署(特別是 AI 訓練)方面變得更加挑剔。這種從瘋狂擴張到策略性、選擇性、電力受限和執行導向的成長階段轉變,意味著未來的贏家,其致勝關鍵除了規模外,更在於精準應對複雜性的能力。

資料來源: Reuters Amazon Web Services MIT Technology Review Microsoft Azure Allianz Commercial

 

read more
IT 基建人工智能雲端服務

Amazon Fastnet 海底電纜計劃:雲端巨擘搶佔全球 AI 基礎設施


Amazon Fastnet 海底電纜計劃:雲端巨擘搶佔全球 AI 基礎設施

Amazon 正式宣布啟動 Fastnet 計劃,這是其首條全資擁有的海底光纖電纜,預定 2028 年投入營運。**這條連接美國馬里蘭州東岸與愛爾蘭科克郡、全長 3,000 英里(4,800 公里)的海底電纜,將超越 Amazon 以往與其他公司共同投資的海底電纜項目。根據 Amazon Web Services 公開資訊,Fastnet 的傳輸容量將超過 320 太比特每秒(Tbps),相當於同時播放 1,250 萬部高清電影或處理數百萬次人工智能訓練任務。這項投資突顯科技巨頭在全球數碼基礎設施競賽中的激烈角逐。

核心事實:從共同投資到獨立掌控的戰略升級

Amazon 此舉標誌著其基礎設施戰略的重要轉變。根據 AWS 核心網絡副總裁 Matt Rehder 在接受 CNBC 採訪時所述,「海底電纜對 AWS 至關重要,對任何跨洋國際連接而言都是如此。」此前,Amazon 曾參與 Jako、Bifrost 和 Havfrue 等多個海底電纜計劃,但這些均為聯合投資性質。Fastnet 則打破這一模式,成為 Amazon 首次獨立承擔的海底光纖工程,反映出該公司對全球網絡自主性的重視。這條電纜的設計容量超過 320 Tbps,可在 3 秒內傳輸整個數碼化美國國會圖書館 3 次。Matt Rehder 進一步強調,衛星連接雖然可行,但因其延遲較高、成本更昂貴,且無法提供客戶和互聯網所需的容量和吞吐量,因此海底光纖仍然是首選方案。這項投資直接應對雲端運算、人工智能和邊緣運算領域對 AWS 日益增長的需求。根據 Amazon 第三季度財報,AWS 業務增長率達 20.2%,創 3 年新高,其中 AI 基礎設施需求成為主要增長動力。

多角度分析:延遲最佳化與金融交易的毫秒戰爭

對 AWS 客戶而言,Fastnet 將顯著降低美東與歐洲資料中心之間的延遲,這對金融交易尤為關鍵。根據歐洲央行經濟研究報告,低延遲與高頻寬可降低跨國交易的固定成本,並減弱距離、資訊不對稱等空間摩擦。金融研究機構指出,最快的跨大西洋交易電纜可在 60 毫秒內在倫敦與紐約之間傳輸市場資料,毫秒級差距往往決定高頻交易演算法的成敗。根據 AWS 全球網絡規劃與收購主任 David Selby 披露,Fastnet 採用先進的光學切換分支單元技術,能夠應對未來拓撲變化需求,特別是為處理不斷增長的 AI 流量負荷而設計。該電纜亦配備了堅固的電纜裝甲和額外的保護鋼線層,以防止自然災害和人為損傷。Amazon 在官方聲明中特別強調,該系統在近岸區域採用「robust armoring」技術,深埋海底以最大程度防止切割。2024 年,AWS 已在 AI 基礎設施上投入逾 3.8 吉瓦(GW)容量,而 Fastnet 正是這一戰略的核心延伸。

全球競爭格局:科技巨頭爭奪海底基礎設施主導權

Amazon Fastnet 計劃的推出並非孤立事件,而是全球科技巨頭在海底基礎設施領域激烈競爭的縮影。Meta 計劃投資超過 100 億美元(約港幣 780 億元)建造 Waterworth 項目,這將成為歷史上最長的海底電纜系統,跨越 50,000 公里,連接美國、印度、南非與巴西等關鍵地區。Google 則已投資超過 30 條全球海底電纜,包括最新宣布的 Sol 系統,連接美國、百慕大、亞速爾群島與西班牙。Microsoft 同樣積極布局海底電纜基礎設施。根據 Future Market Insights 報告,全球海底電纜市場 2025 年市場規模達 309 億美元(約港幣 2,410.2 億元),預計 2035 年將增長至 569 億美元(約港幣 4,438.2 億元),複合年增長率達 6.3%。業界人士認為,這些科技巨頭已從「租用網絡」時代邁入「控制速度」時代,建設專有海底基礎設施成為確立數碼主權的戰略選擇。然而,牛津互聯網研究院的研究指出,這種趨勢也引發了政策制定者對數碼基礎設施日益集中化的擔憂。

背景脈絡:海底電纜的脆弱性與韌性需求

海底電纜的重要性不容小覷——全球超過 95% 國際資料與語音通訊依賴這些 scienza 隱形的「數碼動脈」傳輸。然而近年來這些基礎設施面臨前所未有的安全挑戰。根據 Recorded Future 安全研究報告,2024 年報告的海底電纜事故達 46 宗,創 2013 年有統計以來的新高,較 2023 年的 15 宗劇增。其中最具影響力的 3 宗事故分別發生在紅海、西非與南非。2024 年 2 月,紅海事件損毀 AAE-1、EIG 與 SEACOM 電纜,導致亞洲、歐洲與中東之間 25% 流量中斷。同年 3 月,西非海岸發生岩石滑坡,摧毀 WACS、ACE、MainOne 與 SAT-3 四條電纜,造成至少 16 個中西非國家的網絡中斷,修復成本高達 800 萬美元(約港幣 6,240 萬元)。2024 年 11 月,波羅的海更發生 BCS 東西走廊與 C-Lion1 電纜同時受損事件,引發 NATO 對混合戰爭的擔憂。根據 Submarine Networks 資料,捕魚裝置與船舶錨鏈造成 86% 海底電纜故障。Fastnet 計劃中採取的堅固裝甲設計正是對這些現實威脅的直接回應。

結尾與未來展望

Fastnet 計劃對全球數碼經濟具有深遠影響。 對 Amazon 而言,這象徵從基礎設施消費者向基礎設施擁有者的進化,進而掌握全球資料流動的控制權與定價權。對 AWS 客戶而言,獨有的低延遲通道將成為競爭優勢,尤其對金融交易、AI 應用與實時資料處理業務至關重要。然而,隨著 Meta、Google 與 Microsoft 相繼投入巨資,一個由少數科技巨頭主導的海底基礎設施時代正在成形,這對網絡中立性與數碼自主權帶來新的思考課題。未來 3 年內,Fastnet 與其競爭對手的海底電纜系統能否承載指數級增長的 AI 訓練與部署需求,將成為決定全球雲端競爭格局的關鍵。

資料來源: Amazon Web Services 官方新聞 CNBC – Amazon Building Fastnet Future Market Insights – 海底電纜市場報告 Recorded Future – 海底電纜安全研究 IPTP Networks – 超大規模服務商驅動海底電纜增長

read more
人工智能企業趨勢雲端服務

Meta 財報從「元宇宙」到「超級智慧」轉向: 運算能力成為新戰場


Meta 財報從「元宇宙」到「超級智慧」轉向: 運算能力成為新戰場

Meta 在 2025 年第三季財報電話會議上出奇的沉默,正重新定義這家社群媒體巨擘的未來方向。CEO Mark Zuckerberg 在會議中完全未提及「元宇宙」一詞,與三年前同期提及 8 次的情形形成鮮明對比。這一戰略轉折並非放棄,而是優先次序的重組 — 技術長 Andrew Bosworth 明確指出,元宇宙工作的優先順序保持不變,但現在真正佔據舞台中心的是「運算能力」(Compute)、「AI 基礎設施」與「新穎」研究。

 

核心事實:運算能力的新貨幣

Meta 在 Q3 財報會議上的語言演變,構成轉型的最直接證據。Mark Zuckerberg 提及「運算」一詞 14 次,CFO Susan Li 則提了 8 次,而「基礎設施」和「容量」分別被提及 12 次。相比之下,「元宇宙」、「VR 平台 Horizon」等曾經的優先項目完全從高管話語中消失。根據 Meta 官方公告,公司已將 2025 年資本支出指引上調至 70 億至 72 億美元(約港幣 546 億至 561.6 億元),較上一季度的 66 億至 72 億美元(約港幣 514.8 億至 561.6 億元)區間提高了底線,而 2026 年的支出將「顯著高於」2025 年。

這一軍事級別部署背後,是 Meta 對 AI 基礎設施優先地位的根本性重新評估。Meta 計劃在 2025 年底前啟動約 1GW 運算能力,GPU 總數超過 130 萬單位,這套數據基礎設施將支援公司「超級智慧實驗室」的模型訓練。根據 eMarketer 分析師 Minda Smiley 的觀察,Meta 這一轉向不只是技術優先級調整,更代表企業品牌的根本性改組—從「引領虛擬世界」轉向「主導 AI 前沿」。

多角度分析:高風險的雙重困境

Meta 的運算能力投資策略面臨多個層面的質疑。Bain & Company 研究指出,假設全球 AI 數據中心 2025 年資本支出為 4,000 億美元(約港幣 3.12 萬億元),按照 3-5 年的晶片折舊週期計算,累積年度折舊負擔已達約 400 億美元(約港幣 3,120 億元),而當前全球超大規模企業 AI 相關收入僅為 150 億至 200 億美元(約港幣 1,170 億至 1,560 億元),形成 2:1 虧損比例。Meta 情況更為嚴峻—目前 AI 基礎設施未產生任何直接營收,但年度折舊負擔預計達 220 億美元(約港幣 1,716 億元),而其整個實際 AI 相關業務營收為零。

Meta 領導層對此採取了進攻性論證策略。Mark Zuckerberg 在財報會議上強調,公司重複使用「新穎」(Novel) 一詞 7 次,強調對突破性研究的執著—若超級智慧提前到來,Meta 提前投資將帶來「代際範式轉變」的先發優勢;若來遲,公司可將過度產能「折舊吸收」數年,同時加速核心廣告業務。這一「雙重保險」敘事在華爾街獲得有限共鳴。

背景脈絡:Meta 向 AI 基礎設施優先轉向

Meta 向 AI 基礎設施的優先轉向,必須放在 Reality Labs 五年來 700 億美元(約港幣 5,460 億元)虧損的背景中理解。2020 年初,Mark Zuckerberg 將元宇宙視為 Meta 的未來,當時財報會議充斥著虛擬實境、沉浸式體驗願景。到 2025 年,Reality Labs Q3 虧損仍達 44 億美元(約港幣 343.2 億元),累計虧損超 700 億美元(約港幣 5,460 億元),而新產品推出速度放緩。

相比之下,AI 眼鏡業務(Ray-Ban 和 Oakley 系列)保持兩位數增長勢頭。eMarketer 分析師 Jasmine Enberg 指出,「投資者之所以容忍 Reality Labs 虧損,是因為 Meta 核心廣告業務強勁有力」。Meta 於 6 月成立「超級智慧實驗室」(MSL),聘用 Scale AI 創辦人兼 CEO Alexandr Wang 擔任首席 AI 官,並網羅 GitHub 前 CEO Nat Friedman。根據 CNBC 報導,Meta 開出高達 1 億美元(約港幣 7.8 億元)簽約獎金搶人,遠超業界慣例,引發 OpenAI CEO Sam Altman 公開批評。

行業競爭態勢的新格局

Meta 的 70 億至 72 億美元(約港幣 546 億至 561.6 億元)年度資本支出,雖然龐大,卻已非業界最高。Amazon 在 Q3 2025 宣佈 2025 年整體資本支出達 125 億美元(約港幣 975 億元),Google 在同期宣佈單季度資本支出達 240 億美元(約港幣 1,872 億元),Microsoft 財年資本支出預計達 88 億美元(約港幣 686.4 億元)。Meta 在 Big Tech AI 軍備競賽中的相對位置面臨重新評估。

彭博社報導稱,Amazon 資本支出之所以贏得華爾街掌聲,在於 AWS 雲端服務已實現可持續營收模式—AWS Q3 2025 季度收入達 330 億美元(約港幣 2,574 億元),未來可直接將基礎設施支出變現;而 Google 雖然資本支出成長率最高,但其 TPU 晶片與內部需求高度整合,大部分投資用於自身模型訓練和廣告系統最佳化,而非對外變現。Meta 困境在於:運算能力投資未能尋得 AWS 模式的直接變現路徑,卻又不如 Google 那樣能立即強化核心廣告變現能力。

結論:風險與機遇的分水嶺

Meta 內部備忘錄顯示,元宇宙工作仍是「全公司優先事項」,但其優先次序已被 AI 基礎設施超越。對企業而言,這場賭注關鍵風險在於 2026-2027 年間能否將運算能力轉化為可衡量的營收增量;對投資者而言,關鍵問題是 Meta 廣告業務增長是否足以吸收預計達 120 億至 130 億美元(約港幣 936 億至 1,014 億元)年度的 AI 基礎設施折舊成本。一旦廣告業務增長放緩或市場對 AI ROI 的信心動搖,Meta 將面臨自由現金流惡化的風險。

未來一年,投資者應密切關注:第一,Meta 2026 年廣告業務實際增長率與 AI 驅動的邊際貢獻度;第二,超級智慧實驗室在 Llama 系列模型及自研晶片上的技術進展;第三,公司對 Reality Labs 虧損的態度是否進一步轉向—是否將更多資源從 VR/AR 轉移至 AI 基礎設施。

 

資料來源: Meta官方投資者關係 Business Insider – Q3財報分析 Calcalis Tech – Zuckerberg超級智慧願景 Investing.com – Amazon vs Meta經濟學對比 eMarketer – Meta AI戰略分析

 

read more
人工智能雲端服務

Zoom 夥拍 NVIDIA 詳細解構 490 億參數混合 AI 如何重塑企業協作

Zoom Communications 與 NVIDIA 早前宣布戰略合作,透過整合 NVIDIA Nemotron 開源技術,為 Zoom AI Companion 3.0 注入突破性運算能力。這項合作標誌著企業協作工具正式邁入「聯合式 AI」時代,透過混合語言模型架構,企業用戶將獲得更快速、更智能且更具成本效益的 AI 體驗。Zoom 新推出的 490 億參數大型語言模型,結合專有小型語言模型 (SLM),能智能分配查詢任務,在金融、醫療、政府等高度監管行業實現數據私隱與 AI 創新的平衡。本文將深入剖析這項合作如何重塑企業協作生態、技術架構創新背後的商業邏輯,以及對全球企業數碼轉型的三大關鍵影響。

混合模型架構重新定義企業 AI 效能標準

Zoom 科技總監 X.D. Huang 在官方聲明中揭示了這次合作的核心突破:「透過 NVIDIA GPU 及 AI 軟件堆疊,我們除了提升運算速度,更強化低成本模型的決策能力。」這項創新的混合語言模型架構,是 Zoom 正在申請專利的聯合式 AI 架構的最新進化版本。系統能動態判斷任務複雜度,將簡單查詢分配給延遲低、響應快的小型語言模型處理,而將複雜推理任務交由 490 億參數的大型語言模型執行。

根據 Zoom 官方數據,這種架構已在即時轉錄、翻譯及會議摘要等功能展現卓越效能。更重要的是 Zoom 開發的新 LLM 採用 NVIDIA NeMo 工具構建,在速度、成本與準確度之間實現最佳平衡點。相較於 Meta 的 Llama 3.1 所使用的 1,750 億參數或傳聞中 GPT-5 的 2 至 5 兆參數,Zoom 選擇了更務實的 490 億參數規模,這個決策背後反映了企業市場對「效能與成本平衡」的實際需求。

NVIDIA 生成式 AI 軟件部門副總裁 Kari Briski 強調:「將 NVIDIA Nemotron 整合至 Zoom AI Companion,讓企業用戶體驗到兼具私隱度、高效能且個人化的工作環境。」這番話點出了企業 AI 部署的核心矛盾:如何在追求強大 AI 能力的同時,確保敏感數據不外洩?Zoom 的聯合式架構提供了一個創新解答——透過在本地部署小型模型處理常規任務,僅在必要時調用雲端大型模型,從而在私隱與效能間找到平衡。

 

檢索增強生成技術突破企業數據孤島困境

此次合作最具顛覆性的創新之一,是 Zoom 加速開發的企業級檢索增強生成 (RAG) 功能。這項技術讓 AI Companion 能夠無縫整合 Microsoft 365、Microsoft Teams、Google Workspace、Slack、Salesforce 及 ServiceNow 等主流企業平台。對於長期受困於「數據孤島」問題的企業而言,這意味著 AI 助理終於能夠跨平台調用資訊,提供更精準的決策支援。

以一家跨國金融機構為例,員工在 Zoom 會議中討論客戶案例時,AI Companion 能即時從 Salesforce 調取客戶歷史記錄、從 Microsoft 365 讀取相關合約文件、從 Slack 搜尋團隊過往討論,並整合這些資訊生成會議摘要和後續行動建議。這種跨系統整合能力,在傳統 AI 方案中幾乎不可能實現,因為涉及複雜的 API 對接、數據格式轉換和權限管理問題。

市場研究機構 Mordor Intelligence 報告指出,2025 年企業 AI 市場規模預計達 972 億美元(約港幣 7,581.6 億元),其中混合與邊緣架構的年複合增長率高達 24.05%,顯著超越純雲端方案。這個趨勢驗證了 Zoom 選擇聯合式架構的前瞻性——企業越來越重視低延遲推理和嚴格的數據控制,而非單純追求 AI 模型的參數規模。

值得注意的是 Zoom 堅守的「責任 AI」原則成為其與競爭對手的關鍵差異化優勢。公司明確承諾不使用客戶的音訊、影片、聊天內容、螢幕分享或附件等通訊內容來訓練 AI 模型——無論是 Zoom 自身或第三方模型。這項承諾對金融、醫療和政府等高度監管行業至關重要,因為數據合規是這些產業採用 AI 技術的首要考量。

 

企業協作市場競爭格局面臨重組

Zoom 與 NVIDIA 的合作,正值企業協作市場激烈競爭之際。Microsoft Teams 透過深度整合 Microsoft 365 生態系統和 Copilot AI 功能,在 2025 年持續擴大市場佔有率;Google Workspace 則推出 Gemini Enterprise,強調即時協作和多模態 AI 能力;就連 OpenAI 的 ChatGPT 也在 2025 年推出企業版連接器,搶佔協作工具市場。

然而 Zoom 的策略有其獨特性。不同於競爭對手試圖將用戶鎖定在單一生態系統,Zoom 採取「開放平台」路線,強調與各家主流工具的互通性。根據 UC Today 分析,這種「多模型世界」的架構設計,正是 CIO 和 CTO 們真正需要的——他們不希望依賴單一大型模型,而是需要能夠負責任地、大規模地混合多種智能的能力。

Andreessen Horowitz 在 2025 年針對 100 位企業 CIO 的調查顯示,企業 LLM 預算預計年增長 75%,其中 OpenAI、Google 和 Anthropic 佔據主導市場佔有率,而 Meta 和 Mistral 在開源選項中較受歡迎。更重要的發現是採購流程已趨近傳統軟件購買模式——更嚴格的評估、託管考量和基準審查——同時日益複雜的 AI 工作流程正推高轉換成本。在這個背景下,Zoom 選擇與 NVIDIA 這個「軍火商」合作,而非直接與 AI 模型供應商競爭,顯示出其務實的市場定位。

市場數據也支援這個策略轉向。根據 SuperAnnotate 研究,雖然企業 AI 採用率達 80%,但 95% 的生成式 AI 試點項目因安全和治理缺口而無法擴展到生產環境。這解釋了為何 Zoom 特別強調其方案的「安全性、可擴展性和私隱保護」——這些正是大多數企業 AI 項目失敗的問題所在。

 

聯合式學習架構引領下一代 AI 部署範式

從技術演進角度來看,Zoom 採用的聯合式 AI 架構代表著企業 AI 部署的範式轉移。傳統集中式 AI 架構將所有數據集中到雲端訓練模型,雖然能獲得最佳效能,卻面臨數據主權、私隱合規和延遲問題。而聯合式學習允許 AI 模型在分散的本地節點訓練,僅交換模型參數而非原始數據,既保護私隱又能實現全球協作。

根據 Vertu.com 研究報告,全球聯合式學習市場 2023 年估值 1.5 億美元(約港幣 11.7 億元),預計 2032 年將達 23 億美元(約港幣 179.4 億元),年複合增長率高達 35.4%。這個爆發性增長背後,是歐盟 AI 法案、GDPR 等嚴格數據保護法規的推動,以及企業對私隱保護技術日益增長的需求。Zoom 選擇此刻推出基於聯合式架構的 AI 方案,正是順應了這個大趨勢。

特別值得關注的是 Zoom 整合的 Llama Nemotron Super 推理模型,在準確性、效能和成本之間實現了理想平衡。根據 NVIDIA 技術網誌資料,該模型在知識蒸餾階段使用了 650 億個 token,後續持續預訓練使用了 880 億個 token,並採用包括 FineWeb、Buzz-V1.2 和 Dolma 等多元資料集。評估結果顯示當模型啟用推理模式時,在 MATH500 基準測試中表現從 80.40% 提升至 97.00%,在 AIME25 基準測試中從 16.67% 躍升至 72.50%——這種效能躍升證明了混合架構的實用價值。

 

對香港及亞太企業的戰略啟示

對於香港及亞太地區的企業而言,Zoom 與 NVIDIA 的合作帶來三個關鍵啟示。首先數據主權和私隱保護已成為企業選擇 AI 方案的首要考量。隨著各國數據保護法規趨嚴,採用聯合式架構的 AI 工具將更具競爭優勢,特別是在金融中心如香港、新加坡等地。

其次「混合智能」策略將成為主流。企業不應盲目追求最大參數的 AI 模型,而應根據具體應用場景,混合使用不同規模和專長的模型,以實現成本效益最大化。Zoom 的 490 億參數 LLM 配合小型專用模型的策略,為其他企業提供了可借鑑的範本。

第三開放平台與互通性將決定企業協作工具的長期競爭力。在多雲、多工具並存的企業環境中,能夠無縫整合各類系統的 AI 助理,比試圖建立封閉生態系統的方案更具吸引力。這對香港作為國際商業樞紐而言尤其重要,因為本地企業普遍需要與全球合作夥伴使用多元化的協作工具。

展望未來企業 AI 市場將持續高速增長。360iResearch 預測,2025 至 2030 年間企業 AI 市場年複合增長率將達 16.77%,北美地區憑藉超過 750 億美元(約港幣 5,850 億元)的超大規模資本支出和深厚的創投生態系統,將持續主導市場。然而亞太地區因其龐大的企業基數和快速的數碼化轉型需求,將成為增長最快的市場之一。

Zoom 與 NVIDIA 的合作,標誌著企業協作工具從「功能競賽」轉向「智能化整合」的新階段。成功的企業 AI 策略,不再只是採用最先進的技術,而是如何在私隱、效能、成本和互通性之間找到最佳平衡點。對於希望在 AI 時代保持競爭力的企業而言,現在正是重新審視協作工具策略、擁抱開放式 AI 架構的關鍵時刻。Zoom 與 NVIDIA 攜手創造的「聯合式 AI」生態,或許正為這個問題提供了一個可行的解答。

資料來源 Zoom Communications Official Press Release Mordor Intelligence: Enterprise AI Market Report 2025-2030 Andreessen Horowitz: Enterprise AI Survey 2025 NVIDIA Technical Blog: Nemotron-CC Development Vertu: AI Federated Learning Market Analysis 2025

 

read more
IT 基建雲端服務

Cisco 聯手 NVIDIA 重塑 AI 網絡格局:Nexus N9100 系列如何改寫數據中心競爭規則

Cisco 與 NVIDIA 在 2025 年 10 月底宣布推出業界首款基於 Spectrum-X 技術的 N9100 交換器系列,正式打響企業級 AI 網絡基礎設施的爭奪戰。這款由 NVIDIA 合作夥伴開發的數據中心交換器,成為首個符合 NVIDIA 雲端合作夥伴標準的參考架構 Cisco。這項合作不只標誌著傳統網絡巨頭與 AI 晶片霸主的深度結盟,更為新雲端和主權雲端客戶提供了前所未有的靈活度。值得關注的是,全球數據中心市場預計將從 2025 年的 3,857 億美元(約港幣 3 兆元)飆升至 2035 年突破 1 兆美元(約港幣 7.8 兆元),而 AI 工作負載正是推動這波增長的核心引擎。本文將深入剖析這項合作的戰略意義、技術突破,以及對企業 AI 轉型的實質影響。

雙巨頭結盟重塑競爭版圖

思科成為首個將 Silicon One 技術整合至 NVIDIA Spectrum-X 平台的合作夥伴 Cisco,這項合作在網絡裝置市場掀起巨浪。思科全球總裁 Jeetu Patel 直言:「我們正處於史上最大規模建設數據中心的起步階段。」這番話並非誇大其詞。NVIDIA 行政總裁 Jensen Huang 預測,全球 AI 基礎設施支出今年將達 6,000 億美元(約港幣 4.68 兆元),到 2030 年可能飆升至 3 兆至 4 兆美元(約港幣 23.4 兆至 31.2 兆元),年複合增長率高達 38% 至 46%。在這場 AI 軍備競賽中,思科與 NVIDIA 的聯盟展現出精準的戰略布局。N9100 系列交換器不只支援 NX-OS 和 SONiC 兩種作業系統,更整合了 NVIDIA 的先進壅塞控制與自適應路由技術。Spectrum-X 平台能將 AI 網絡效能提升 1.6 倍 NVIDIA,這對於需要處理大規模 GPU 叢集的企業而言,意味著訓練時間大幅縮短、營運成本顯著降低。

技術突破 從訓練到推論的全方位改良

Spectrum-X 平台的技術革新體現在多個層面。該平台採用 Spectrum-4 交換晶片,提供 51.2 Tbps 的交換容量,支援 800GbE 速度 NVIDIA,遠超傳統乙太網方案。NVIDIA 網絡高級副總裁 Gilad Shainer 表示,客戶可選擇使用思科 N9100 系列或 Silicon One 交換器部署 Spectrum-X,這種靈活性對於需要逐步升級基礎設施的企業至關重要。技術層面的創新還包括 BlueField-3 DPU 的深度整合,實現了壅塞控制、自適應路由和遙測功能的智能化管理。在多租戶環境中,Spectrum-X 能確保每個租戶的工作負載獲得一致且可預測的效能表現 TD SYNNEX。這對於雲端服務供應商而言意義重大,因為效能隔離直接影響客戶滿意度與服務質素。此外新推出的 Spectrum-XGS 技術能將 NVIDIA 集體通訊函式庫 (NCCL) 效能提升近 2 倍 NVIDIA Newsroom,使分散在不同地理位置的數據中心能如同單一 AI 超級工廠般運作。

亞太市場潛力 香港與區域機遇並存

亞太地區正成為 AI 基礎設施投資的熱點。該區域預計將以 35.1% 的年複合增長率領跑全球,中國、日本和印度的數碼化轉型與 AI 投資持續加速 MarketsandMarkets。然而各市場的準備程度差異顯著。Cisco 2025 年調查顯示,香港僅有 2% 的企業達到 AI 採用的「領先者」標準,為全球最低 IndexBox,遠低於 13% 的全球平均水平。Cisco 亞太雲端與 AI 基礎設施董事總經理 Simon Miceli 坦承對此結果感到「有些驚訝」,並將其歸因於運算技術的可及性問題。相較之下,香港生產力促進局 2025 年調查顯示,88% 的受訪企業員工已在日常工作中使用 AI 工具,92% 企業計劃將 AI 整合至相關工作流程 OpenGov Asia。這種矛盾突顯出香港企業在 AI 工具使用與完整架構部署之間的差距。政府層面已意識到這個問題,2025 年 2 月投入 10 億港元於香港 AI 研發院,並設定 2030 年達到 15,000 petaflops 運算能力的目標 Ainvest。

企業轉型路徑 從試點到規模化部署

思科與 NVIDIA 的 Secure AI Factory 為企業提供了清晰的轉型框架。這個架構整合了運算(基於 NVIDIA HGX 的 Cisco UCS 伺服器)、網絡(Cisco Nexus Hyperfabric AI)、儲存(Pure Storage、NetApp 等認證合作夥伴)以及軟件(NVIDIA AI Enterprise 平台)等四大核心元素。安全層面涵蓋基礎設施保護、模型安全和應用程式防護 Cisco,Cisco AI Defense 已整合 NVIDIA NeMo Guardrails,能限制敏感數據外洩。可視度方面,Splunk Observability Cloud 提供 AI 應用堆疊的即時監控,包括透過 AI PODs 即時洞察架構健康狀況。值得一提的是,思科與 NVIDIA 及電訊合作夥伴共同推出的 AI 原生無線堆疊,為 6G 時代奠定基礎。這個堆疊整合感知與通訊技術,支援數以億計的連網裝置,從智能手機擴展至 AR 眼鏡、連網汽車及機械人 NVIDIA Newsroom。

投資回報與未來展望 AI 轉型的商業邏輯

企業採用 AI 基礎設施的關鍵考量在於投資回報率。基流科技行政總裁表示,思科透過 NX-OS 和 Nexus Dashboard 在整個 AI 架構中建立統一管理介面,帶來更迅速的部署和更低的總持有成本。GMI Cloud 架構總監強調,N9100 系列提供的靈活度「正是新一代 AI 工作負載所需的核心」。研究機構預測 AI 數據中心市場將從 2025 年的 177 億美元(約港幣 1,380.6 億元)增長至 2030 年的 937 億美元(約港幣 7,308.6 億元),年複合增長率達 26.83% MarketsandMarkets。這波增長不只來自新建設施,更多源於既有架構的升級需求。Goldman Sachs 預估數據中心容量將從目前的 59GW 增至 2030 年的 122GW,其中超大規模業者和批發營運商佔比將從 60% 提升至 70% Goldman Sachs。

戰略啟示 靈活度與安全性並重

這次合作對企業 AI 策略帶來三點啟示。首先靈活的架構選擇至關重要。思科同時支援 Silicon One 和 Spectrum-X 晶片,讓客戶能根據實際需求選擇最適方案,避免被單一供應商鎖定。其次安全必須內建於架構核心,而非事後補救。Cisco Hypershield 和 AI Defense 的整合展現了這種前瞻思維。第三生態系統比單一產品更重要。思科與 NVIDIA 數年來已在 Webex 協作裝置和數據中心運算環境提供整合方案 NVIDIA Newsroom,這次深化合作是在既有基礎上的策略延伸。面對 Arista 和其他競爭對手的挑戰,思科的優勢在於四十年的網絡專業、龐大的全球銷售通路,以及與企業客戶的深厚信任關係。

結語:AI 時代的基礎設施革命才剛開始

思科與 NVIDIA 的合作標誌著企業級 AI 網絡進入新階段。這不只是技術層面的突破,更代表著產業結構的重組。對於正在評估 AI 投資的企業而言,現在是行動的最佳時機。調查顯示,AI「領先者」企業有 98% 設計了能處理 AI 規模與複雜性的網絡 IndexBox,相較之下僅半數其他企業做到這點。基礎設施債務的累積將成為未來競爭的隱形殺手。隨著 AI 代理 (AI agents) 需求興起,對規模、安全和監督的要求只會更加嚴格。企業應思考:您的網絡架構準備好迎接下一波 AI 浪潮了嗎?

【最後更新:2025 年 11 月 2 日】 資料來源: Cisco Newsroom DC Market Insights NVIDIA Spectrum-X Platform The Next Platform South China Morning Post

 

read more
IT 基建企業趨勢雲端服務

微軟 Azure 全球大規模故障:配置失誤引發連鎖危機 雲端依賴風險再升溫


微軟 Azure 全球大規模故障:配置失誤引發連鎖危機 雲端依賴風險再升溫

Microsoft Azure 雲端平台於 2025 年 10 月 29 日發生大規模服務中斷,一個「無意間的配置變更」導致全球企業系統癱瘓長達數小時,影響範圍橫跨航空、電信、零售與娛樂產業。這起事故發生在 Microsoft 公布季度財報前幾小時,讓全球超過 18,000 名用戶無法存取 Office 365、Azure Portal、Xbox Live 等關鍵服務。阿拉斯加航空報到系統故障、英國希斯路機場網站無法連接、電信巨頭 Vodafone 服務受阻,凸顯雲端基礎設施的脆弱性。值得注意的是,這起事件緊接在 Amazon AWS 故障後一週發生,讓企業對單一供應商的高度依賴風險浮上檯面。

技術根源:Azure Front Door 配置失誤的連鎖反應

根據 Microsoft 官方 Azure 狀態頁面說明,問題源於 Azure Front Door (AFD) 的租戶配置變更,該變更引入了無效或不一致的配置狀態,導致大量 AFD 節點無法正常載入。Azure Front Door 是 Microsoft 的全球邊緣路由架構,負責內容分發與應用程式傳遞服務,當異常節點從全球資源池中退出時,流量分配失衡,放大了影響範圍,即使部分健康區域也出現間歇性可用性問題。Microsoft 表示從美東時間中午 12 點開始,使用 Azure Front Door 的客戶和 Microsoft 服務遭遇超時與錯誤,受影響服務包括 Azure 通訊服務 (Azure Communication Services)、媒體服務 (Media Services) 以及 Microsoft 365。網絡監測平台 ThousandEyes 在 UTC 時間 16:00 檢測到維吉尼亞州阿什本 AWS 邊緣節點的封包遺失,這與 Microsoft 官方報告的事故開始時間完全吻合。

雙巨頭接連失守:雲端寡占市場的系統性風險

這次 Azure 當機發生在 AWS 大規模中斷後僅一週,AWS 事故由 DNS 競爭條件 (race condition) 引發,導致應用程式無法正確連接到 US-EAST-1 區域的 DynamoDB API,影響社群媒體、遊戲、外賣、串流與金融平台等多個行業,為近年規模最大的雲端災難之一。AWS 工程師在 UTC 時間 6:49 (10 月 20 日) 首次收到用戶回報,兩小時內 Downdetector 收到超過 400 萬份當機回報,整起事故持續超過 15 小時。市場數據顯示,Amazon AWS 以 30% 市場佔有率穩居全球雲端服務龍頭,Microsoft Azure 以 20% 位居第二,Google Cloud 以第三名跟隨。然而接連發生的兩大巨頭故障事件讓業界警覺:全球雲端基礎設施呈現寡占格局,對少數大型供應商的高度依賴已成為系統性風險。

Microsoft 財報日遇尷尬:雲端業務表現亮眼卻遭當機打臉

諷刺的是,這次故障發生在 Microsoft 2026 財年第一季財報發布前數小時。Microsoft 於 10 月 29 日公布的財報顯示,該季營收達 777 億美元(約港幣 6,060.6 億元),年增 18%;營業利益 380 億美元(約港幣 2,964 億元),年增 24%;淨利 (GAAP 基礎) 277 億美元(約港幣 2,160.6 億元),年增 12%。Microsoft 行政總裁 Satya Nadella 在財報中強調:「我們的全球規模雲端和 AI 工廠,加上跨高價值領域的 Copilots,正在推動廣泛的擴散和現實世界的影響。這就是為什麼我們繼續增加在 AI 方面的資本和人才投資,以滿足未來的巨大機會。」然而故障事件的時機讓這份亮眼財報蒙上陰影。

修復過程:從 18,000 到 230 件回報的漸進恢復

Microsoft 在偵測到問題後立即凍結所有 AFD 配置變更,防止故障狀態進一步擴散,並開始在全球部署「最後已知良好」配置。同時工程團隊將 Azure Portal 從 Front Door 導向其他路徑,以恢復管理存取權限。Azure 在其狀態頁面表示,預計在美東時間晚間 7 點 20 分前於受影響區域看到「強勁的改善跡象並朝向完全緩解」。恢復過程需要在大量節點上重新載入配置,並逐步重新平衡流量以避免節點恢復服務時出現過載情況。這種刻意的分階段恢復對於穩定系統、恢復規模並確保問題不再發生是必要的。根據 Downdetector 數據,Azure 問題回報從高峰期的 18,000 人降至晚間 6 點 49 分的 230 人;Microsoft 365 的問題回報也從近 11,700 人降至 377 人,顯示修復進展顯著。然而即使配置已修復,在 DNS 快取、ISP 路由和連線狀態收斂之前,部分客戶仍在恢復期間經歷不穩定和殘留影響。

企業啟示:多雲策略與架構韌性成為生存關鍵

兩大雲端巨頭接連故障,迫使企業重新審視雲端策略。Forbes 分析指出,華爾街已將多雲解決方案視為唯一能夠對關鍵功能進行未來防護的方法。金融機構尤其關注第三方依賴帶來的雲端安全風險,這些風險包括供應商鎖定、有限的可見性、合規性挑戰以及資料外洩風險。網絡安全專家建議,金融機構應實施嚴格的供應商風險管理實務、進行徹底的盡職調查,並遵守共享責任模型:雲端供應商負責「雲端的安全」(底層基礎設施),而企業負責「雲端中的安全」(其資料和應用程式)。系統架構師和 IT 領導者的實際啟示包括:審核雲端依賴關係圖、驗證程式化管理路徑,並排練故障轉移情境,假設邊緣和身份層可能獨立於後端運算失效。

對企業的深遠影響與未來趨勢

Microsoft Azure 與 AWS 接連當機事件,為全球企業敲響了雲端依賴的警鐘。在數碼轉型加速的時代,單一雲端供應商的配置失誤就能引發全球性業務中斷,這種系統性風險將迫使企業重新評估其雲端架構策略。多雲部署、災難恢復演練、供應商風險管理將從「最佳實務」升級為「生存必需」。隨著 AI 與雲端運算深度整合,如何在追求創新的同時確保基礎設施的穩定性與韌性,將成為科技巨頭與企業客戶共同面對的長期挑戰。

 

資料來源: 美聯社(Associated Press) CNBC Channel News Asia Forbes 微軟投資人關係

read more