close

雲端服務

中小企雲端專區

Ruijie Cloud 一站式雲端管理系統 支援手機 APP、Web GUI

近年,網絡雲端管理發展起來,各大網絡品牌都有自家的雲端管理系統,加速了雲使用的步伐。但現在大部分品牌都只有特定系列產品才能夠支援雲端管理,有的品牌雲端管理就功能並不齊全,又或者 License 的年費太高,中小企業難以負擔。巿場上還有什麼品牌可以給用家選擇呢?以下介紹的 Ruijie Cloud 網絡雲端管理系統,是少數向中小企巿場支援全企業級功能的網絡雲端系統。

▲ Ruijie Wi-Fi

 

企業級品牌 知名網絡供應商

網絡品牌供應商 Ruijie 為商用企業提供網絡解決方案,除商用巿場外,政府 Wi-Fi.HK 和眾多的 NGO 也有選用 Ruijie 產品,全港亦有超過 400 間中小學正採用 Ruijie 網絡方案。上年度 Ruijie 便推出了針對中小企業巿場的牌子 — Reyee,產品質量維持高水平兼附設適合中小企使用的企業級功能。

 

 

獨家自組網  3 分鐘自動配置設定完成

組裝 Ruijie 產品不會有太大難度,原因是 Ruijie 產品有個獨特功能名叫「自組網 SON : Self-Organizing Network」,只要使用全 Reyee 產品,3 分鐘內可以全部產品自動添加上 Ruijie Cloud,包括 Router、Switch、Gateway 和 Access Point。往後的功能設置亦都會自動套上設備上,大幅減少設置時間和所需要的技術門檻。如果設備裡有支援 ONVIF 的 CCTV Camera ,Ruijie Cloud 會自動 discover 並添加上雲端。

以下參考影片展示了 Ruijie 曾經試過不用 3 分鐘就能使用自組網功能去設置全部 150 台 AP

https://www.youtube.com/watch?v=TPCqAD8DR_k

 

▲Ruijie Cloud 自動 discover Reyee 和 Camera,紅色連結代表有問題

 

手機網絡管理 遙遠設置

企業級的管理系統,由於功能複雜和定位原因,多數需要用獨立軟件或 Web GUI 登入系統去操作,就算有手機 App 也只會提供整體資訊為主 。Ruijie Cloud 給用家驚喜的地方是它的手機 App,除了必有的整體資訊如網絡狀態、設備的使用資料和用家使用量外,更加貼心地提供設備的內裡資訊,比如每一個網埠的連結應用和使用狀況,使管理者可以更快地偵查到每台設備的實際情形。

▲ Ruijie Cloud 提供豐富網絡資訊

 

系統的 alarm system 可以設計不同門檻和組合,當有異常時,就透過 EMAIL 和 App pop up 主動去通知管理者,再進入 App 裡查看設備狀況。App 裡已經有常用的 Wi-Fi 設置,網絡限制等設定,管理者可以於手機 App 內作出即時調整,十分方便。如果項目需要其他技術人員協助管理,亦設有 Share Tenant 功能,可以提供到 Read/Write 和 Read only 的選擇,共同管理項目。

▲ 全面企業級功能

 

企業功能 節省運維成本

上面已介紹過 Ruijie Cloud 有提供企業級功能讓中小企使用,另外他們有幾個貼地功能,相信不少中小止都有這需求 :

Remote PoE Reboot : 當終端設備如 Wi-Fi 或者 CCTV Camera 有不穩定時,一般的做法是派遣工程司到現場做 onsite inspection,但這樣做的成本十分高昂,而且 8 成的不穩定問題都只需要重啓設備就可以。若果使用 Ruijie Cloud,當管理者知道終端設備有異常時,可以先透過 Cloud 去重啓該設備的網絡電接阜,如果問題解決就可以省郤派遣工程司到現場處理,這樣就更有效率,減省運維成本。

 

Long Distance : 眾所周知一般 PoE LAN 的傳輸距離限制是 100 米,如果要連接超過 100 米,就需要添加 PoE 交換機,增加運維成本。Ruijie Cloud 有一個 Long Distance 功能,可以把連接阜的傳輸速度限制於 10MB 內,換來達到 200 米的傳輸距離。對於一些有特別距離需求的 CCTV 項目,這功能就會大派用場。

 

AI Optimization / Diagnose : 網絡不穩定或者異常,有可能是設置問題,也有可能是外在因素影響,但一般情況下,如果没有相關專業知識者或者現場做詳細測試的話,是很難檢測到問題所在。Ruijie Cloud 有一個 AI Optimization 功能,可以一鍵幫助改善設備的配置,比如用大數據分析選擇最暢通的網絡頻普,調較合適的訊號強弱等等。另一個功能是 AI Diagnose,它可以協助你分析從手機直至 Internet 間的連接是否有硬體或者設置異常,並且提供解決建議,尤如一名專業網絡工程師從旁協助。

▲ 一鍵偵查和改善系統配置

 

 

 

Ruiji Cloud license 終身免費

很多品牌的雲端管理是需要額外收取 License Fee,每年以 Subscription 型式或者按產品型號和數量去收取費用。而 Ruijie cloud 則向所有客戶提供終身免費設備無上限,和企業級功能的網絡雲端管理系統,這策略十分關顧只用上有限設備的中小企業,幫助他們大大減輕運維成本。

▲ Ruijie Cloud 比巿場對手牌子的雲端有更強大的功能且免費

 

Google 雲端系統 保證安全性

雲端管理的無間斷服務能力和資料安全一向是大眾關注焦點。香港區所使用的 Ruijie Cloud 是設置於 Singapore Google 內, 已通過 99.99 的認證,另外於俄羅斯亦有設置高可用性解決方案,雲端系統的穩定性有所保證。對於某些行業如酒店和銀行有著高度嚴格的私人條例規範,Ruijie Cloud 亦已經通過歐盟對私隱保障的嚴格需求 (GDPR),客戶不用擔心資料外洩。

 

總結

有賴於 Ruijie Cloud 的友善介面,產品設置和測試過程都可非常順利,相信網絡新手都能夠輕易掌握。而 Ruijie Cloud 是完全免費和無上限使用,所以中小企業若使用 Ruijie Reyee 產品的話,只需付上硬件費用就能用 Ruijie Cloud,整個配套相當吸引。

 

 

測試產品:

RG-EG210G-E

  • 10 個 Gigabit Port,uplink 1000Mbps
  • 最大支援 200 台設備同時使用
  • 預設 2 WAN,最大支援 4 WAN
  • 預設三個網段
  • 支援網絡流量控制,行為管理
  • 支援 IPSec VPN,DDNS

 

▲ RG-EG210G-E 全能中小企 Router

 

RG-ES209GC-P

  • 8 個 Gigabit PoE/PoE+ Port,1 個 Gigabit Uplink Port
  • 120W 最大 PoE 輸出功率
  • 支援 Ruijie cloud
  • 4K MAC 容量
  • 支援 Loop Prevention、Remote PoE Reboot、Long Distance 功能

 

 

▲ RG-ES209GC-P 高性能交換機

 

 

 

RG-RAP2260(G)

  • 2 個 Gigabit LAN Port
  • AX1800 Wi-Fi 6 ,2×2 MIMO
  • 4G : 574Mbps / 5G : 1201Mbps,共提供 1.775Gbps
  • 內置藍牙 0
  • 支援 Layer 2,3 Roaming

 

 

▲ RG-RAP2260(G) 全能中小企 Gateway

 

read more
人工智能企業趨勢雲端服務

資本開支激增 66% 嚇怕投資者 Microsoft 雲端帝國面臨信心考驗


資本開支激增 66% 嚇怕投資者 Microsoft 雲端帝國面臨信心考驗

即使 Microsoft 剛交出超越市場預期的財報成績單,其股價在 2026 年 1 月 29 日法蘭克福交易時段仍暴跌 6.2%。這場股市震盪揭示殘酷現實:在 AI 競賽白熱化當下,單季資本開支(CapEx)飆升至 375 億美元(約港幣 2,925 億元)的天文數字,令投資者由狂熱轉趨謹慎。這除了是 Microsoft 的危機,更是整個科技巨頭集體面臨的「燒錢換未來」困局。本文將深入剖析 Microsoft 為何在優異財報後仍遭市場拋售、AI 基建競賽如何重塑雲端產業格局,以及企業決策者需要關注的三大轉折信號。

財報亮眼難掩投資者疑慮

Microsoft 2026 財年第二季度(2025 年 10-12 月)總營收達 812.7 億美元(約港幣 6,339 億元),按年增長 16.7%,超出華爾街預期的 803.2 億美元;每股收益(EPS)5.16 美元(約港幣 40.2 元)更是超過分析師預測 34.1%。Microsoft 雲端業務首次在單季突破 500 億美元(約港幣 3,900 億元)大關,Azure 雲服務收入增長 39%,略高於市場預期的 38.8%。然而,這些亮眼數字在盤後交易時段卻換來超過 6% 股價重挫,突顯華爾街對 Microsoft AI 戰略的根本性質疑。

投資銀行分析師指出,問題核心在於 Microsoft 資本開支按年增長高達 66%,且約三分之二資金投向 GPU 和 CPU 等「短期資產」。這意味著這些昂貴 AI 晶片折舊速度極快,可能在 2 至 3 年內就需要更新換代。更令市場擔憂的是,Microsoft 首席財務長在財報會議上坦承,AI 運算產能限制將持續至 2026 財年結束,導致客戶需求無法完全轉化為實際營收。Morgan Stanley 科技產業分析師 Keith Weiss 表示:「當客戶願意付費但你無法交付服務,這不是好的稀缺性,而是供應鏈管理的失敗。」

AI 軍備競賽推高產業成本天花板

Microsoft 並非唯一陷入「AI 投資黑洞」的科技巨頭。Meta 在同一週宣布 2026 年資本開支計劃高達 1,150 億至 1,350 億美元(約港幣 8,970 億至 1.05 兆元),幾乎是 2025 年 720 億美元(約港幣 5,616 億元)兩倍。行政總裁 Mark Zuckerberg 強調,這些資金將用於建造 AI 運算中心並招募研究人員,目標是開發「超級智慧」AI 模型。相較之下,Google 母公司 Alphabet 在 2025 年資本開支為 930 億美元(約港幣 7,254 億元),而 Microsoft 單季 375 億美元的投資速度換算年化已達 1,500 億美元(約港幣 1.17 兆元)。

這場資本競賽正在重塑雲端運算市場版圖。根據 2026 年 1 月最新市場調研,AWS 以 32% 市場佔有率繼續領先,但 Microsoft Azure 已將份額提升至 23%,Google Cloud 則守住 11%。然而 Google 在 AI 技術層面展現出獨特優勢——其 Gemini 2.5 Pro 模型在 2026 年基準測試中獲得 91.9% 綜合評分,超越 Microsoft 採用 GPT-5.1 模型的 88.1%。技術顧問公司 Emerline 在 2026 年 1 月報告指出,Google 擁有從數據中心、晶片設計到模型訓練的完整價值鏈,而 Microsoft 高度依賴 OpenAI 等外部夥伴,這種結構性差異可能在長期競爭中成為關鍵變數。

麻省理工學院數碼經濟研究中心主任 Erik Brynjolfsson 教授警告:「當前 AI 基建投資回報週期高度不確定。歷史上,科網泡沫時期的過度投資花費十年才消化完畢。這次 AI 浪潮若無法在 3 至 5 年內產生相應經濟價值,將面臨更嚴重調整。」這解釋了為何市場對 Microsoft 的「未來賭注」反應冷淡——投資者需要看到更清晰獲利路徑,而非單純收入增長。

企業雲端策略的三重挑戰

Microsoft 的困境也折射出企業客戶在雲端採購決策中面臨的新挑戰。首先是成本透明度危機:Azure 雲端毛利率從去年同期 70% 下滑至 67%,這些成本壓力最終將透過漲價轉嫁給企業用戶。其次是多雲策略的必要性:Microsoft 與 OpenAI 在 2025 年 10 月重組協議中,允許 ChatGPT 製造商尋找其他雲端夥伴,打破過去排他性關係。這意味著即使是 Microsoft 的戰略盟友也在分散供應商風險。

第三項挑戰來自 AI 功能實用性差距。雖然 Microsoft 在 M365 Copilot 等產品中大量整合 AI,但企業調查顯示僅有 37% 受訪公司認為生成式 AI 工具明顯提升生產力。Gartner 在 2026 年 1 月發布報告指出,多數企業仍在「概念驗證」階段,真正規模化部署 AI 應用比例不足 15%。對於企業資訊科技總監(CIO)而言,這提出嚴峻問題:是否該跟隨雲端供應商的 AI 押注,還是等待技術成熟度進一步提升?

股價回調後的策略重估

Microsoft 股價在財報公布後跌至 460 美元(約港幣 3,588 元)區間,較 2025 年 12 月高點回調超過 12%,市值蒸發近 3,000 億美元(約港幣 2.34 兆元)。然而這次修正也為理性評估提供契機。行政總裁 Satya Nadella 在財報會議上強調:「我們仍處於 AI 擴散初期階段,其對 GDP 的廣泛影響才剛開始顯現。」公司預測第三季度營收將達 806.5 億至 817.5 億美元(約港幣 6,290 億至 6,376 億元),按年增長 15-17%,顯示管理層對中期增長仍有信心。

對企業決策者而言,Microsoft 的經驗提供三點啟示:第一,AI 基建投資需要與實際業務場景緊密結合,避免「為 AI 而 AI」盲目跟風;第二,多雲架構不再是選項而是必需,單一供應商鎖定風險在產能受限時代尤其危險;第三,財務紀律在技術狂熱中更顯重要——即使是 Microsoft 這樣的現金流巨頭,也因投資節奏問題遭市場懲罰。

這場股市震盪的深層意義在於:投資者正在要求科技巨頭證明 AI 投資的商業合理性,而不再僅憑「不投資就會落後」的恐懼驅動決策。當 Microsoft、Meta、Google 都在競相加碼,誰能率先實現投資回報正向循環,誰就將在下一輪競爭中佔據主導。對全球企業而言,2026 年將是觀察這場 AI 豪賭結果的關鍵之年——你的雲端戰略,準備好應對這場產業變局了嗎?

資料來源: Reuters CNBC Investing.com The New York Times Programming Helper

read more
企業趨勢業界消息雲端服務

Equinix 2026 數據揭示:香港互聯網流量激增 32% AI 驅動數碼基建轉型



全球數碼基礎設施企業 Equinix 於 2026 年 1 月 29 日公布最新數據,顯示其在香港的互聯網交換流量於 2025 年錄得 32.3% 的驚人增長,遠超市場整體 5% 增幅,更是香港 GDP 增長率 3% 的十倍以上。數據印證香港數碼經濟正經歷結構性轉型,揭示人工智能(AI)已從概念討論階段全面進入商業應用落實期。Equinix 目前佔據全港 42% 互聯網交換流量市場佔有率,穩居本地最大 IX 服務供應商地位。

數字經濟增速遠超傳統指標

Equinix 香港區董事總經理韓祖恩(Joanne Hon)在傳媒午餐會上指出,Equinix Internet Exchange(EIE)的流量從 2024 年的 3.37 Terabits 飆升至 2025 年的 4.46 Terabits,同期香港整體互聯網交換市場僅從 3.045 Terabits 增長至 3.202 Terabits。對比突顯高質素私有互連方案需求快速增長,企業不再滿足於傳統公共互聯網連接,轉而尋求更安全、低延遲的專屬網絡解決方案。

韓祖恩特別強調,AI 應用形態正從傳統輔助工具演變為「代理型人工智能」(Agentic AI),這類 AI 系統能自主執行複雜任務,驅使數據處理必須更接近位於邊緣(Edge)的終端用戶。配合政府在沙嶺等地推動數據中心招標項目,預計全港數據中心容量將於 2030 年倍增,增幅超過 200%。

千億美元 AI 基礎設施市場浮現

Equinix 引述 McKinsey & Company 研究數據顯示,全球 AI 基礎設施市場(不包括硬件設備與超大規模雲端服務商自建設施)在 2025 年潛在市場規模達 380 億美元(約港幣 2,964 億元),預計到 2029 年將擴張至 940 億美元(約港幣 7,332 億元)。初期階段 AI 訓練(Training)與推理(Inference)各佔市場一半;隨著應用落實加速,推理需求佔比預計將提升至約 70%。

趨勢直接帶動相關市場快速增長。混合雲與多雲解決方案市場將從 2025 年的 670 億美元(約港幣 5,226 億元)增長至 2029 年的 940 億美元(約港幣 7,332 億元),年複合增長率達 9%;網絡服務市場則從 400 億美元增至 600 億美元(約港幣 3,120 億至 4,680 億元),年複合增長率 11%。值得留意是私有託管 AI 市場佔有率目前仍低於 20%,顯示企業級 AI 部署存在巨大增長空間。

十億港元投資押注液冷技術

為應對 AI 工作負載對基礎設施的極端要求,Equinix 宣布投資 10 億港元(約 1.28 億美元)建設 HK6 數據中心,屬該公司過去十年在港最大單筆投資。HK6 將配備液冷技術(Liquid Cooling),能將單個機櫃功率密度從傳統 3 至 5 千瓦大幅提升至 150 千瓦,遠超 AI 工作負載所需的 40 至 80 千瓦標準。

HK6 將與 Equinix 現有五座香港數據中心實現互連,形成覆蓋跨國企業、本地公司及大灣區中資企業的數據樞紐網絡。該設施將實現 100% 可再生能源覆蓋,符合 Equinix 在 2040 年前達成淨零排放承諾。在亞太區層面,Equinix 正同步推進 12 個擴建項目,涵蓋印度金奈與孟買、印尼、日本、馬來西亞及新加坡等地。

 

企業 AI 應用面臨三大技術瓶頸

Equinix 亞太區產品與解決方案行銷總監何健偉(Anthony Ho)引述香港生產力促進局 2025 年第四季調查數據指出,香港已有 88% 企業正在使用 AI 技術,應用範圍涵蓋生物科技藥物發現、醫療影像 X 光分析、金融業欺詐偵測,以及物流業供應鏈改善等領域。簡報數據顯示香港整體 AI 採用率達 90%,已成為全球最活躍 AI 市場之一。

然而何健偉指出,企業部署 AI 時面臨三大核心挑戰。首先是數據主權與私隱合規問題,跨境數據傳輸須符合不同司法管轄區法規要求。其次是基礎設施嚴重不匹配:AI 工作負載電力需求是傳統應用 20 至 30 倍,且需要高速私有連接而非標準互聯網,並需整合多雲環境與專業 AI 服務商。第三是網絡延遲標準驟降,傳統工作負載可接受 100 至 500 毫秒延遲,惟實時 AI 推理要求延遲必須低於 10 毫秒。

分佈式 AI 架構突破地理限制

針對上述挑戰,何健偉介紹 Equinix 「分佈式 AI」(Distributed AI)架構方案,利用遍布全球 270 個數據中心及 Equinix Fabric 軟件定義網絡實現靈活部署。架構允許企業將 AI 訓練放在算力集中的雲端或專業 AI 工廠,並將推理部署在靠近用戶的邊緣節點,訓練與推理之間通過 10 至 100 Gbps 頻寬連接,推理響應時間可壓縮至 1 至 2 毫秒。

Equinix 重點推出 Fabric Intelligence 平台四項新能力。Equinix Network Assistant 讓工程師透過 Slack 或 Microsoft Teams 等對話介面,以自然語言設計和部署網絡連接。模型上下文協議(MCP)如同為 Fabric 加裝「USB-C 通用接口」,使其能與 ChatGPT、Claude 等外部 AI 代理無縫對接。全球推理網絡(Global Inference Network)整合 Groq 等 GPU 即服務(GPUaaS)供應商,讓客戶能在數分鐘內訂閱全球 AI 算力。可觀測性平台(Observability Platform)則提供數據分析與預測性維護功能,將遙測數據串流至客戶首選的安全資訊與事件管理(SIEM)系統。

 

醫療 AI 實證:準確度躍升 45%

何健偉又以澳洲醫療科技公司 Harrison AI 為例說明實際成效。該公司總部位於悉尼,擁有 175 名以上員工及超過 8,500 萬美元(約港幣 6.63 億元)年收入,專注開發臨床診斷 AI 解決方案。透過在 Equinix 悉尼高效能數據中心部署八套 NVIDIA DGX A100 系統,並採用混合雲架構將 PB 級數據存儲在 Equinix 設施,Harrison AI 將其 Annalise.ai 平台的 AI 模型訓練時間從數月大幅縮短至數日。

該平台目前每日處理約 8,000 個病例,每月協助 38,000 名患者獲得更準確診斷。關鍵突破在於胸部 X 光片分析:系統能在數秒內識別 124 項特徵,診斷準確度較傳統方法提升 45%。Harrison AI 聯合創始人兼行政總裁 Aengus Tran 表示,Equinix 提供的世界級安全託管服務,滿足他們在全球構建臨床 AI 解決方案時對運算與數據存儲平台的最高技術要求。

 

AI 樞紐生態加速成形

香港已建立全球最多元化 AI 生態系統之一,匯聚超過 500 間 AI 機構、290 間企業及 180 位投資者,在金融、醫療及政府服務等領域推動創新應用。生態系統快速發展得益於政府策略性政策支援,包括推出總值 30 億港元的人工智能資助計劃,以及成立「AIR@InnoHK」創新平台等措施。強勁的現貨市場日均成交額與活躍首次公開招股市場,亦為科技企業提供充足資本支援。

韓祖恩強調,全港互聯網交換流量持續攀升,印證政府、業界與科技合作夥伴之間的協同效應,共同建立具韌性、可持續並能推動創新的數碼生態系統。Equinix 期望透過前瞻性基礎設施與開放式協作平台,讓各行各業、不同規模企業都能蓬勃發展、勇於創新,抓緊大灣區以至全球市場龐大機遇。

隨著 HK6 數據中心預計在 2026 年內落成,配備液體冷卻技術等高效能 AI 設施,香港在支援新一輪 AI 浪潮、雲端及數碼發展方面的基礎設施能力將再上層樓。這些有利因素正推動市場對私有對等互連及直接互連服務需求持續增長,進一步鞏固香港作為亞太區數碼基礎設施與創新門戶戰略地位。

 

資料來源:https://www.equinix.hk/

 

read more
IT 基建企業趨勢雲端服務

華為雲 Flexus X 實例效能倍增:PostgreSQL 實測突破 2.1 萬 TPS


華為雲 Flexus X 實例效能倍增:PostgreSQL 實測突破 2.1 萬 TPS

華為雲近日發布全新升級 Flexus 雲伺服器系列,其中 Flexus X 實例在 PostgreSQL 測試錄得 2.1 萬+ TPS,效能達業界旗艦型實例 3.4 倍。這次升級將 X86 實例最大規格增倍,並引入針對 PostgreSQL 及 Memcached 專屬加速能力。

核心性能突破:2.1 萬 TPS 代表什麼

華為雲在現場效能演示,Flexus X 實例跑出 2.1 萬+ TPS 成績。TPS(Transactions Per Second,每秒事務處理量)是衡量高並發處理能力核心指標,代表伺服器每秒能穩定完成超過 2.1 萬次獨立業務事務,如數據查詢、訂單提交及介面調用。有媒體指出,普通中小型網站 TPS 通常在 100 至 1,000 之間,常規電商平台日常 TPS 約 5,000 至 1 萬,而 2.1 萬+ TPS 已達「抗峰值」級別。依託 X-Turbo 應用加速引擎,Flexus X 實例在 PostgreSQL 場景能實現效能數倍提升,顯著加速數據處理及業務響應速度。

X-Turbo 加速引擎與應用場景

華為雲官方網站顯示,Flexus X 實例搭載 X-Turbo 應用加速引擎,常見應用效能最高可達業界同規格 6 倍。這次升級針對關鍵業務應用,特別引入 PostgreSQL 與 Memcached 專屬加速能力。Flexus X 系列定位為「柔性算力,旗艦體驗」,覆蓋高科技、零售、金融及遊戲等行業通用工作負載場景。產品提供靈活規格設定,突破傳統 1:2 次冪固有配比,實現 1:3、2:5 等個人化特殊規格,量身匹配業務效能需求。

香港與亞太區域部署

Flexus X 目前支援多個區域,包括 CN-Hong Kong、AP-Bangkok、AP-Singapore、AP-Jakarta、TR-Istanbul、ME-Riyadh、LA-Mexico City2、LA-Sao Paulo1、LA-Santiago、AF-Cairo 及 AF-Johannesburg。香港企業可以直接在本地區域購買並部署 Flexus X 實例。華為雲建議用戶根據目標客戶地理位置選擇最近區域,以獲得更低網絡延遲及更快連接速度。亞太地區(中國大陸以外)用戶可選擇 CN-Hong Kong、AP-Bangkok 或 AP-Singapore 區域。

產品規格與技術特性

Flexus X 實例提供 2 核 2G 到 16 核多種規格選擇,基頻及睿頻為 2.8GHz 及 3.5GHz。產品支援 CPU 記憶體比個人化設定(3:1/1:1/1:2/1:4/1:6/2:3/1:8 等),vCPU 數量範圍為 2 至 16。結合 Huawei Cloud EulerOS,Flexus X 支援在千萬量級核數規模下對 CPU、記憶體資源規格進行不停機調整,實現無中斷算力升級。產品提供與華為雲旗艦級雲伺服器相同可用性保障:單 AZ 99.975% 可用性,跨 AZ 99.995% 可用性。

適用場景與價格定位

Flexus X 實例適用於企業門戶、個人網誌、小程序後台及小遊戲後台等多種業務場景。以香港區域為例,2 核 2G 規格年費約 238.59 美元(約港幣 HK$1,861),4 核 8G 約 538.07 美元(約港幣 HK$4,197),8 核 16G 約 1,076.15 美元(約港幣 HK$8,394)。產品支援按業務算力需求進行精細定價,根據實際使用算力付費。用戶可搭配彈性負載均衡(ELB)、彈性伸縮(AS)及 Web 應用程式防火牆(WAF)等服務,實現跨可用區高可用與安全防護。

 

資料來源:快科技,華為雲 Flexus X 官方網站,華為雲 FlexusX 技術文件,新浪財經,網易新聞

read more
人工智能企業趨勢雲端服務

解構 Red Hat x NVIDIA 新合作:Day 0 支援如何加速企業 AI 轉型

Red Hat 於 2026 年 1 月宣布與 NVIDIA 擴大戰略合作,推出專為 NVIDIA Vera Rubin 平台改良的完整 AI 堆疊架構。此次合作標誌著企業 AI 從實驗階段邁向生產環境的關鍵轉折點,Red Hat 將首次提供首發當日(Day 0)支援,讓企業能在新一代機架級 AI 系統發布首日,即獲得完整的企業級 Linux 平台。這項突破性合作涵蓋 Red Hat Enterprise Linux、Red Hat OpenShift 及 Red Hat AI 三大核心產品線,預計於 2026 年下半年隨 NVIDIA Rubin 平台同步上市。

運算架構革命:從單機到機架級的產業轉型

NVIDIA 創辦人黃仁勳在聯合聲明中指出:「Red Hat 以企業級開源軟件,推動企業運算模式變革。在 AI 時代,從晶片、系統到中介軟件、模型及 AI 生命週期,整個運算堆疊正被徹底重塑。」這番話點出當前產業的核心挑戰:隨著 AI 工作負載從單一伺服器轉向高密度整合系統,企業需要全新基礎架構來支撐代理式 AI(Agentic AI)和高階推理應用。PwC 研究顯示,2026 年許多企業正計劃採取由上而下的策略集中管理 AI 工具箱,將 AI 從試驗階段轉向正式投產。

NVIDIA Vera Rubin 平台帶來多項革命性創新,包括專為超大規模 AI 運算設計的 Vera CPU、BlueField-4 資料處理器,以及 NVIDIA Vera Rubin NVL72 機架級解決方案。Red Hat 總裁 Matt Hicks 表示:「NVIDIA 架構突破令 AI 成為必然,並證明運算堆疊將決定產業未來。為在技術轉型初期把握機遇,Red Hat 與 NVIDIA 將為最新架構提供首發當日(Day 0)全面支援。」這種「零時差」支援模式打破過去硬件發布後需等待數月才能獲得作業系統完整支援的產業慣例。

三層防護:企業級安全與效能雙重保證

Red Hat Enterprise Linux for NVIDIA 作為此次合作的核心產品,是全球領先企業 Linux 平台的專門版本,針對 NVIDIA Rubin 平台進行深度改良。該平台提供經由驗證的互操作性,確保硬件與軟件功能無縫協作,降低部署障礙。更關鍵是,Red Hat Enterprise Linux 引入 NVIDIA 機密運算支援,涵蓋整個 AI 生命週期,為 GPU、記憶體及模型數據提供強化的安全能力,並透過加密驗證確保企業最敏感的 AI 工作負載獲得全面保護。

在管理層面,企業可透過 Red Hat Enterprise Linux 軟件庫直接存取經驗證的 NVIDIA GPU OpenRM 驅動程式和 CUDA 工具包,簡化 AI 基礎架構生命週期管理。平台內建 SELinux 及主動漏洞管理等功能,對於保護 AI 訓練與推論環境中的敏感資料至關重要。值得注意是,Red Hat Enterprise Linux for NVIDIA 與主要版本保持完全一致,客戶可根據生產需求輕鬆切換回傳統版本,確保生產系統維持預期效能與應用程式相容性。

混合雲戰略:Kubernetes 驅動彈性部署架構

Red Hat OpenShift 作為業界領先、以 Kubernetes 驅動的企業級混合雲平台,在此次合作中扮演自動化加速運算部署的關鍵角色。平台增加對 NVIDIA 基礎架構軟件及 NVIDIA CUDA-X 程式庫支援,確保各類加速工作負載獲得最佳效能。對 NVIDIA BlueField 的支援進一步強化網絡能力、提升叢集管理並改善資源使用率,帶來更一致的企業級營運體驗。

Red Hat AI 平台透過新增 NVIDIA 整合,擴展在 Red Hat AI Inference Server、Red Hat Enterprise Linux AI 和 Red Hat OpenShift AI 上對 NVIDIA 開源模型的分散式推論支援。根據 Futurium Group 分析師觀察,這種首發當日(Day 0)支援策略旨在移除減緩 AI 部署的阻力,加速企業獲得 AI 投資回報。Red Hat 與 NVIDIA 計劃將支援範圍從 NVIDIA Nemotron 系列擴展到其他開源模型,涵蓋影像、機械人以及特定產業領域應用。

產業生態與市場影響:開源力量重塑競爭格局

Red Hat 擁有業界最大商業開源生態系統,強大軟件、硬件與雲端供應商網絡能提供更廣泛選擇與更強大功能,滿足混合雲環境需求。無論是內部部署、邊緣運算或公有雲,Red Hat Enterprise Linux 都能為 NVIDIA 加速運算基礎架構提供統一平台,減少孤立基礎架構存在並降低整體擁有成本。這種混合雲一致性對於正在規劃 AI 轉型的企業尤其重要,讓他們能夠在不同環境間靈活移動工作負載。

此次合作延續 Red Hat 與 NVIDIA 的長期夥伴關係。早在 2025 年 5 月,Red Hat 宣布與 NVIDIA Enterprise AI Factory 整合,支援 NVIDIA Blackwell 架構,展示 Red Hat AI 在代理式 AI 規模化部署方面的能力。NVIDIA 企業 AI 副總裁 Justin Boitano 當時表示:「NVIDIA 和 Red Hat 正透過整合 Red Hat OpenShift AI 與 NVIDIA Enterprise AI Factory 驗證設計,開創企業 AI 未來,建立更無縫的全堆疊平台。」

企業決策者的戰略考量:AI 投產關鍵時刻

這項合作為企業決策者帶來三大戰略價值:首先,首發當日(Day 0)支援大幅縮短從硬件採購到系統上線的時間,讓企業能在競爭對手之前部署最新 AI 能力。其次,統一開源平台降低供應商鎖定風險,企業可在保持彈性同時享受企業級支援。第三,經過驗證的互操作性減少整合成本和技術風險,讓 IT 團隊能專注於創新而非基礎架構管理。

隨著代理式 AI 和高階推理需求增長,企業需要重新思考其 AI 基礎架構策略。Red Hat 與 NVIDIA 的合作提供一個經過驗證的路徑,讓企業能夠以更低風險和更快速度將 AI 從實驗室推向生產環境。未來值得關注是,這種開源與專有技術深度整合,是否會成為企業 AI 基礎架構新標準?隨著更多企業在 2026 年下半年開始部署 Rubin 平台,市場將給出答案。

資料來源:Red Hat | NVIDIA | Futurium Group | iThome | Red Hat AI Factory

 

 

read more
企業趨勢儲存技術數據分析雲端服務

Blackstone 萬億押注 AI 數據中心:謹慎投資還是世紀豪賭


Blackstone 萬億押注 AI 數據中心:謹慎投資還是世紀豪賭?

Blackstone 行政總裁 Steve Schwarzman 12 月中公開反駁 AI 數據中心存在「泡沫」的市場質疑,強調這是「極保守實業投資」而非投機行為 。全球科技巨頭 2025 年 AI 基建支出預計達 4,000 億美元(約港幣 3.12 兆元),Oracle 亦披露高達 2,480 億美元(約港幣 1.93 兆元)數據中心租賃承諾,引發市場震盪 。Blackstone 作為全球最大替代資產管理公司,目前管理資產達 1.2 兆美元(約港幣 9.36 兆元),旗下持有北美最大數據中心營運商 QTS 及澳洲領先業者 AirTrunk,其立場對這場萬億級產業辯論極具指標性。

Blackstone 商業模式:長期合約鎖定穩定現金流

Schwarzman 接受 CNBC 專訪時闡述 Blackstone 數據中心業務策略:公司投資建設數據中心及配套電力設施,並與 Nvidia 等高信貸評級企業簽訂長期租賃協議,本質上扮演基建供應者角色 。Blackstone 總裁兼營運總監 Jon Gray 於 12 月 10 日高盛金融服務會議透露,自 2021 年以約 100 億美元(約港幣 780 億元)私有化 QTS 後,其租賃容量已增長 12 倍,充分證明市場需求真實 。此模式核心在於將不確定的科技投資,轉化為可預測租金收入,邏輯類近房地產投資信託(REITs)般穩健。

Gray 進一步指出,即使市場資金大量湧入,電力供應限制仍令數據中心投資保持吸引力 。產業面臨關鍵瓶頸:美國多家電力公司接獲數據中心電力需求,已超出現有發電容量;德州 Oncor Electric 接獲連線申請達 20 吉瓦,幾近其尖峰用電量四倍 。Blackstone 看準供需失衡結構性機會,2024 年 9 月以 240 億澳元(約 159 億美元/港幣 1,240 億元)收購 AirTrunk,創該公司亞太區最大單筆投資紀錄 。AirTrunk 目前在亞太區擁有逾 800 兆瓦容量,並宣布將投資 80 億美元(約港幣 624 億元)擴展數據中心版圖 。

萬億市場預測與現實需求驗證

McKinsey 最新報告為數據中心產業描繪驚人前景:全球數據中心需求預計以年複合增長率 22% 增長,2030 年總容量將從 2025 年 82 吉瓦躍升至 219 吉瓦,需累計 6.7 兆美元(約港幣 52.26 兆元)資本投資才能跟上算力需求 。具體而言,AI 專用數據中心容量將從 2025 年 44 吉瓦暴增至 2030 年 156 吉瓦,屆時 AI 工作負載將佔總容量 70% 。這些數字支撐 Schwarzman「AI 將塑造新世界,人們需要數據中心支撐 AI 運轉」的論述 。

然而市場並非一面倒樂觀。投資分析公司 Bain 估算,要證明當前 AI 基建投資合理性,2030 年需產生每年 2 兆美元(約港幣 15.6 兆元)AI 營收,數字超越 Amazon、Apple、Google、Microsoft 及 Meta 五大科技巨頭 2024 年預期營收總和 。D.A. Davidson 投資公司分析師 Gil Luria 警告,若 AI 市場成長僅屬穩定而非爆炸性,行業將面臨產能過剩,目前約 1,000 億美元(約港幣 7,800 億元)數據中心建設債務或變一文不值,引發金融連鎖反應 。Dell’Oro Group 市場研究總監在 2026 年預測報告承認,雖然「泡沫」辯論持續升溫,但 AI 基建投資底層驅動力依然完整,建設將繼續進行。

風險訊號:Oracle 的 2,480 億美元警示

Oracle 在 12 月中披露財務數據為市場敲響警鐘:公司擁有 2,480 億美元(約港幣 1.93 兆元)租賃付款承諾,「幾乎全部」與數據中心及雲端容量安排相關,租賃期限長達 15 至 19 年 。然而許多 AI 客戶(包括 OpenAI)簽訂合約僅數年,期限錯配意味 Oracle 正為尚不擁有的基建鎖定長期支付義務,同時押注數十年後 AI 需求依然強勁。彭博專欄作家將此形容為又一枚 AI「炸彈」,質疑若需求未如預期,公司盈利能力及現金流將受重創 。

相較之下 Blackstone 模式顯得審慎。該公司主要建設並擁有數據中心資產,再出租予信用良好的長期租戶,避免 Oracle 式槓桿風險。《麻省理工科技評論》與 FXStreet 分析文章指出,當前可能存在的不是「AI 泡沫」而是「數據中心泡沫」——實體基建速度可能超前實際應用需求,類似 2000 年代初光纖過度建設歷史重演 。業界觀察到 Microsoft 已在過去六個月縮減 2 吉瓦美國及歐洲數據中心項目,矽谷部分數據中心建成後仍等待電力供應而閒置。

對企業決策者的戰略啟示

Blackstone 數據中心投資策略為企業領導者提供三個關鍵洞察:首先,基建投資價值在於將科技不確定性轉化為合約確定性,長期租賃協議是降低風險核心機制。其次,供應鏈瓶頸(特別是電力供應)往往比技術進步更能決定投資價值,掌握稀缺資源比追逐最新技術更具防禦性。第三,規模化營運至關重要——Blackstone 透過 QTS 容量 12 倍增長及 AirTrunk 亞太佈局,建立談判優勢及成本效益。

對於考慮 AI 基建投資的企業,關鍵問題不再是「是否投資」而是「如何投資」。Schwarzman 斷言「AI 將塑造新世界」可能正確,但時間軸不確定性要求投資者採取更謹慎財務結構。Stanford 經濟學家 Erik Brynjolfsson 提出「J 曲線理論」概括當前階段:AI 投資初期呈現負回報,但預計 2020 年代後半段將迎來顯著增長 。關鍵轉折點到來前,Blackstone 式「保守實業投資」策略,可能比 Oracle 式激進槓桿更能穿越週期波動。市場將在未來 3 至 5 年驗證誰的判斷更接近真相——究竟是萬億產業黎明,還是又一場資本狂歡黃昏。

資料來源: 路透社 麥肯錫顧問公司 彭博社 CNBC 美國國家公共廣播電台(NPR)

read more
人工智能資訊保安雲端服務

與資安巨頭 Palo Alto Networks 達成戰略合作 Google Cloud 爭奪雲端市場主導權


與資安巨頭 Palo Alto Networks 達成戰略合作 Google Cloud 爭奪雲端市場主導權

Google 母公司 Alphabet 旗下雲端運算業務 Google Cloud 於 2024 年 12 月 19 日宣佈,與全球資安巨頭 Palo Alto Networks 達成戰略性擴大合作。知情人士向路透社透露,Palo Alto 承諾未來數年內將向 Google Cloud 支付接近 100 億美元(約港幣 780 億元),屬 Google Cloud 歷來最大宗安全服務合約。此協議鞏固雙方自 2018 年起的合作關係,標誌著 AI 驅動資安服務正式進入十位數金額時代。本文將探討交易背後的戰略意圖、AI 資安市場爆發性增長,以及 Google Cloud 如何藉此挑戰 AWS 和 Microsoft Azure 市場地位。

AI 資安需求引爆:市場規模三年翻五倍

人工智能在網絡安全領域應用正以驚人速度擴張,全球 AI 資安市場預計從 2024 年的 231.2 億美元激增至 2025 年的 285.1 億美元,年增長率達 23.3%。市場研究機構預測數字將在 2032 年達到 1,361.8 億美元,複合年增長率高達 24.81%。Palo Alto Networks 總裁 BJ Jenkins 接受訪問時指出,現時每個董事會都在詢問如何利用 AI 能力,同時保護業務免受新興威脅,是次合作正是為解決此挑戰而生。這筆近 100 億美元投資中,相當大比例將用於開發結合生成式 AI 的新型資安服務,而非僅將現有服務遷移至 Google 平台。

Google Cloud 營收長 Matt Renner 強調,AI 帶來龐大資安服務需求,與過去傳統雲端安全有本質上差異。根據雲端安全統計數據,2024 年超過 60% 企業報告發生與公共雲相關的安全事件,83% 組織將雲端安全視為主要關切,數據洩露平均成本已攀升至 435 萬美元(約港幣 3,393 萬元)。更關鍵是 58% 開發人員預期 2024 年雲端安全風險將進一步增加,驅使 51% 組織計劃增加雲端安全投資,其中 31% 企業每年投入超過 5,000 萬美元(約港幣 3.9 億元)保護雲端基建設施。

技術整合策略:Gemini AI 與 Precision AI 的碰撞

此次合作技術核心在於 Palo Alto Networks 將利用 Google 的 Gemini AI 模型增強其安全副駕駛(copilots)功能,同時整合 Google Cloud 的 Vertex AI 平台。Palo Alto 在 2024 年 5 月推出的 Precision AI 安全解決方案已展現實力,方案包括 AI 存取安全(AI Access Security)、AI 安全態勢管理(AI-SPM)以及 AI 執行時安全(AI Runtime Security)三大核心產品。這些工具能識別 AI 模型、應用程式和資源中的漏洞,優先處理錯誤配置,並防範提示注入攻擊、模型阻斷服務等 AI 時代特有威脅。

透過這項合作,Palo Alto 客戶將能保護在 Google Cloud 上運行的活躍 AI 工作負載和數據,維持安全協議,加速 Google Cloud 整合,並簡化安全解決方案。值得注意是 Palo Alto 已在 Google Cloud Marketplace 上產生超過 20 億美元(約港幣 156 億元)收入,擁有超過 75 個聯合解決方案。這種深度整合不單是技術層面結合,更是商業生態系統全面融合,為企業客戶提供從基建設施到應用層的端到端 AI 安全防護。

雲端三巨頭競賽:Google 追趕 AWS 與 Azure 的關鍵一步

這筆交易對 Google Cloud 具重大戰略意義,皆因其正努力縮小與市場領導者 Amazon Web Services(AWS)和 Microsoft Azure 的差距。根據 2024 年第三季度市場數據,AWS 以 31% 市佔率穩居第一,Microsoft Azure 佔 20%,而 Google Cloud 僅佔約 13%。然而 Google Cloud 正展現強勁增長動能,2024 年第三季營收突破 150 億美元大關,年增 34%,已成為 Alphabet 增長最迅速業務之一,正挑戰 YouTube 成為僅次於搜尋廣告業務的第二大收入來源。

D.A. Davidson 分析師 Gil Luria 表示,Google 要與 Microsoft Azure 有效競爭企業客戶,必須提供更全面服務範圍,包括安全軟件。Google 顯然深知這一點,在 2025 年 3 月宣佈以 320 億美元(約港幣 2,496 億元)收購雲端安全初創公司 Wiz,是 Google 史上最大收購案,遠超 2012 年以 125 億美元(約港幣 975 億元)收購 Motorola Mobility 的紀錄。該交易已於 2025 年 11 月獲美國政府批准,預計 2026 年完成。同時 Google 亦在 2025 年與 Meta 達成 6 年超過 100 億美元雲端合約,並與 ServiceNow 簽訂 5 年 12 億美元協議。連串大手筆投資顯示 Google 正全力衝刺雲端安全領域,企圖重塑競爭格局。

人脈與歷史:從 Google 高管到資安巨頭掌舵者

這筆交易背後還有一段人脈連結。Palo Alto Networks 現任行政總裁 Nikesh Arora 曾在 Google 任職長達十年(2004-2014),期間歷任歐洲營運副總裁、歐洲中東非洲區總裁,並在 2009 年至 2014 年擔任全球銷售營運與業務發展總裁,最後職位是資深副總裁兼首席商務長。在 Arora 領導下,Google 歐洲業務創造數十億美元營收,他對 Google 企業文化和商業策略有深刻理解。這層歷史淵源或是促成此次百億美元合作的重要催化劑,因雙方高層對彼此技術能力和企業願景有深度信任。

Arora 在 2014 年離開 Google 後曾短暫擔任 SoftBank Group 總裁(2014-2016),隨後於 2018 年加入 Palo Alto Networks 擔任行政總裁。在他帶領下,Palo Alto 積極透過收購擴大版圖,最新一筆是 2025 年 11 月宣佈以 33.5 億美元(約港幣 261.3 億元)收購次世代可觀測性領導廠商 Chronosphere,該公司年度經常性收入超過 1.6 億美元(約港幣 12.48 億元),年增長率達三位數。這項收購將把 Chronosphere 的可觀測性框架與 Palo Alto 的 AI 增強型 AgentiX 工具整合,為管理大規模 AI 工作負載的企業提供實時、自主修復能力。

企業數碼轉型的資安防線:從被動防禦到主動威脅獵捕

對於企業決策者而言,這筆交易揭示一個關鍵趨勢:AI 時代資安策略必須從被動防禦轉向主動威脅獵捕和自動化響應。Jenkins 將當前局勢比喻為當年雲端技術剛興起時,出現過去從未想像過的新型資安威脅;如今網絡攻擊手法,往往就是利用資安業者用來強化防禦的同一套生成式 AI 工具。這種「以 AI 攻 AI」的對抗態勢,要求企業必須部署更先進 AI 驅動安全解決方案,才能在這場軍備競賽中保持領先。

雲端安全市場整體規模亦印證此需求,2024 年全球雲端安全市場價值 360.8 億美元,預計到 2034 年將達到 1,210.4 億美元,複合年增長率為 12.87%。大型企業在 2024 年佔據雲端安全市場最高份額,主因是這些企業對雲端開發和基建設施的大量投資,增加網絡攻擊和數據洩露風險。由於這些企業處理包含敏感資料的複雜數據集,在企業內部建立強大雲端安全基建設施至關重要。87% 組織已採用多雲策略,72% 使用混合雲配置(公用雲和私有雲結合),這令資安防護需求進一步複雜化。

未來展望:十位數合約成為新常態

這筆近 100 億美元交易可能只是開端,隨著 AI 技術滲透到企業營運各個層面,雲端安全服務價值將持續攀升。Google Cloud 藉由與 Palo Alto 深度合作,除獲得可觀營收承諾,更重要是建立 AI 資安領域技術標準和市場信心。對企業而言,選擇雲端服務供應商時,資安能力已從「加分項」躍升為「必要條件」,而整合 AI 的下一代資安解決方案將成為決定性競爭優勢。在 CrowdStrike 全球當機事件後,企業對網絡資產保護投資意願明顯增強,預示類似規模雲端安全合約將成為產業新常態。Google、AWS 和 Microsoft 之間的雲端霸主之爭,正從運算能力和儲存容量比拼,轉向誰能提供最全面、最智能的 AI 資安防護體系。

資料來源: Reuters CNBC TechCrunch GlobeNewswire Palo Alto Networks

read more
人工智能企業趨勢雲端服務

Oracle 徹底退出自研晶片競賽:不再認為設計及製造自家晶片具戰略必要性


Oracle 徹底退出自研晶片競賽:不再認為設計及製造自家晶片具戰略必要性

Oracle 徹底退出晶片自研競賽,以稅前 27 億美元(約港幣 210.6 億元)收益,出售所持晶片設計公司 Ampere Computing 全部股權,由日本 SoftBank 以 65 億美元(約港幣 507 億元)完成收購。這家雲端巨頭董事長 Larry Ellison 明確表示,公司不再認為設計、製造自家晶片具備戰略必要性,轉而推行「晶片中立」策略。此舉與 Microsoft、AWS、Google 等競爭對手押注自研晶片的路徑背道而馳,揭示雲端運算產業在 AI 軍備競賽中的分歧抉擇。

戰略大轉彎:從股權投資到徹底撤離

Oracle 於 2025 年 11 月完成對 Ampere Computing 的股權出售,該公司此前持有 Ampere 約 29% 股份。SoftBank 以 65 億美元(約港幣 507 億元)全資收購 Ampere,後者專注設計基於 ARM 架構的高效能 AI 運算晶片。值得注意的是,Oracle 的晶片參與模式本就與競爭對手不同,採取少數股權投資而非組建內部團隊全資研發,Ampere 同時為其他客戶供貨,並非 Oracle 專屬。Larry Ellison 在財報電話會議中解釋,隨著 AI 技術迭代加速,公司需保持部署任何客戶所需晶片類型的靈活性,避免受限於單一架構。

這宗交易為 Oracle 第二財季業績注入強心針。雖然投資者擔憂其在 AI 雲端基建的巨額開支,但 27 億美元(約港幣 210.6 億元)的一次性收益顯著推升 GAAP 淨利潤和非 GAAP 每股收益,超越多數分析師預期。同時,Oracle 的剩餘履約義務(RPO)達到約 5,230 億美元(約港幣 4.08 兆元),反映龐大的未來雲端承諾訂單。然而這份亮眼財報背後,是一家企業在資本密集型轉型中的策略性撤退——放棄晶片控制權以換取財務與技術的雙重靈活性。

多元供應鏈佈局:AMD、Nvidia 雙軌並行

拋售 Ampere 並非意味放棄硬件合作,而是轉向多元化供應商網絡。Oracle 於 2025 年 10 月宣布與 AMD 擴大合作,將於 2026 年第三季推出首個基於 AMD Instinct MI450 系列 GPU 的公共 AI 超級集群,初期規模達 50,000 個 GPU。這使 Oracle 成為首家公開提供 AMD 驅動 AI 超級集群的超大規模雲端服務供應商。AMD Instinct MI450 以高性價比和能源效益著稱,Anthropic 等 AI 企業已計劃大規模採用類似架構。

同時,Oracle 繼續深化與 Nvidia 的合作,大量採購其 GPU 以滿足主流 AI 訓練需求。更引人注目的是,Oracle 在出售 Ampere 股權後不到一個月,於 2025 年 12 月推出基於 Ampere Computing 最新 AmpereOne M 處理器的 A4 標準雲端實例(Instance)。這些實例提供每核心 61% 的效能提升和 20% 更高的加速頻率,單價僅為每 OCPU 每小時 0.0138 美元(約港幣 0.11 元)。此舉顯示 Oracle 即便不持股 Ampere,仍可透過商業合作取得最新技術——這正是「晶片中立」的核心邏輯:以採購靈活性取代所有權束縛。

逆勢而行:當對手重金砸向自研晶片

Oracle 的策略與產業主流形成鮮明對比。AWS 於 2025 年 12 月發布第五代自研處理器 Graviton5,配備 192 核心和 5 倍大型快取(Cache),效能較前代提升 25%,並已連續三年為 AWS 超過半數的新 CPU 容量提供動力。AWS 強調,定制處理器使其能改良整個堆疊(Stack)——從處理器到伺服器的直接晶片冷卻技術,將風扇功耗降低 33%。該公司 98% 的前 1,000 大 EC2 客戶已使用 Graviton,顯示自研晶片在成本與效能平衡上的競爭力。

Google 則繼續押注 TPU(張量處理單元),Anthropic 於 2025 年 10 月宣布計劃使用多達 100 萬個 TPU 晶片訓練和部署 Claude 模型,價值達數百億美元。Google Cloud 行政總裁 Thomas Kurian 強調,TPU 的性價比和能源效益是 Anthropic 擴大使用的關鍵原因。Microsoft 同樣在 2025 年 10 月明確表示,未來將主要使用自家 AI 晶片,以減少對 Nvidia 和 AMD 的依賴,並提升為特定需求改良的效率。科技巨頭在 2025 年合計投入超過 3,000 億美元(約港幣 2.34 兆元)的資本支出,其中大部分流向 AI 基建和自研晶片。

產業分析師指出,自研晶片為雲端服務供應商帶來三大優勢:針對工作負載改良的效能、降低單位運算成本、以及減輕供應鏈風險。然而 Oracle 選擇反向操作,放棄設計控制權以換取技術路線的「保險單」。這場策略分歧的核心在於:當 AI 模型架構尚在快速演變時,「擁有最佳晶片」重要,還是「能快速切換到最佳晶片」更重要?

靈活性對抗鎖定:企業決策的新範式

Oracle 的「晶片中立」政策反映更深層的產業焦慮:供應商鎖定與技術路徑依賴。Larry Ellison 警告,AI 硬件架構變化速度超乎預期,提前數年押注單一技術可能造成災難性後果。透過同時支援 Nvidia、AMD、Ampere 等多家供應商,Oracle 將選擇權交還客戶,企業可根據具體 AI 模型需求、預算限制和效能要求,在多種處理器配置間靈活切換。這種策略在定價談判中也具備優勢,避免過度依賴 Nvidia 等單一供應商面臨的溢價與供貨瓶頸。

從財務角度看,27 億美元(約港幣 210.6 億元)收益立即改善 Oracle 資產負債表,可再投資於雲端數據中心擴張和軟件開發。相較之下,自研晶片需持續投入數十億美元的研發與製造成本,且技術迭代風險由企業獨自承擔。AWS、Google、Microsoft 的自研路徑基於其龐大的內部運算需求,它們可在自家服務中消化數百萬顆定制晶片,攤銷研發成本。但 Oracle 的雲端業務規模相對較小,Ampere 晶片部分供貨給外部客戶,未形成完全內部循環。在此情境下,「購買」可能確實比「製造」更具經濟理性。

然而這場賭注並非毫無風險。放棄晶片設計意味喪失差異化競爭力的一個關鍵來源,競爭對手可透過定制晶片提供獨特的效能優勢或成本結構,而 Oracle 只能在現貨市場上與所有買家競爭相同的供應。若 AMD 或 Nvidia 未來面臨產能限制,Oracle 可能被擠到供應鏈後段。此外,SoftBank 收購 Ampere 後可能優先服務其自身 AI 計劃(如 Stargate 計劃),削弱 Oracle 取得最新 AmpereOne 晶片的優先級。

AI 基礎設施的十字路口

Oracle 的策略轉向為雲端運算產業提出根本性問題:在 AI 時代,垂直整合還是水平協作更具優勢?自研晶片派認為,控制全堆疊(從晶片到軟件)是實現最佳效能與成本的唯一途徑;晶片中立派則主張,技術快速演變時保持靈活性更為關鍵。兩種模式或將在未來數年並存,最終由市場檢驗何者更能滿足企業多樣化的 AI 需求。

對企業 IT 決策者而言,Oracle 的實驗提供新思考:選擇雲端服務供應商時,除了當前效能和價格,供應商的晶片策略同樣影響長期靈活性。若企業 AI 工作負載需求明確且穩定,自研晶片改良的雲端可能提供更佳性價比;但若處於探索階段或需快速試驗多種模型架構,晶片中立平台的彈性可能更具價值。隨著 AMD MI450 集群在 2026 年第三季推出,市場將首次有機會驗證「多供應商策略」能否在效能與成本上與「自研晶片帝國」分庭抗禮。這場產業實驗的結果,將重塑未來十年雲端運算的競爭格局。

資料來源:

CRN

Oracle

Yahoo Finance

Oracle AMD Partnership

AWS

 

read more
人工智能雲端服務

AWS 推出第三代 Trainium3 AI 晶片挑戰 Nvidia 霸主地位 企業訓練成本可望減半

在 AWS re:Invent 2025 大會上,Amazon Web Services(AWS)於週二宣布推出第三代 Trainium3 AI 晶片。這場發布被視為雲端巨頭企圖打破 Nvidia 在 AI 晶片市場近乎壟斷地位的重要一步。對於正在思考如何在人工智能浪潮中控制成本的企業領導者而言,這項新產品釋放出一個明確訊號:AI 基礎建設的選擇正在增加,而成本結構亦將隨之改變。

這款採用最先進 3 納米製程技術的晶片,其意義遠超過技術規格的提升。根據 AWS 提供的數據,Trainium3 UltraServers 系統的運算效能較前一代提升 4.4 倍,能源效率提升 40%。這意味著企業在追求 AI 創新的同時,不必再面臨電費和營運成本失控的困境。更關鍵的是,已經測試這款晶片的企業客戶報告,相較於傳統 GPU 方案,訓練成本節省幅度高達 50%。

 

時間就是金錢 訓練週期大幅縮短

對於企業決策者而言,這些數字背後的商業邏輯十分清晰。當前 AI 模型訓練成本已經成為許多企業的沉重負擔,動輒需要數百萬美元(約港幣數百萬元)的投資才能建立一個像樣的 AI 能力。Trainium3 的出現,令這個門檻大幅降低。以實際應用場景來說,一家企業原本需要數月時間訓練的大型語言模型,現在可能只需要數週就能完成。這種時間成本的節省往往比直接的財務節省更具戰略價值。

挑戰 Nvidia 壟斷 企業需要更多選擇

從市場競爭角度觀察,AWS 此舉充滿戰略意圖。研究機構 Kearney 的報告指出,Nvidia 目前掌握了 90% 的 AI 訓練和推論晶片市場,這種近乎壟斷的局面令許多企業感到不安。過度依賴單一供應商不僅可能面臨價格風險,更可能在供應鏈緊張時無法取得關鍵硬件。AWS 的策略是提供一個既能支援現有技術生態、又具備成本優勢的替代方案。值得注意的是,AWS 已經宣布下一代 Trainium4 將支援 Nvidia 的 NVLink Fusion 互連技術,這表明 AWS 並非要完全取代 Nvidia,而是要在同一個生態系統中提供更多選擇。

早期客戶驗證 實際效益超越承諾

從早期採用者的經驗來看,這項技術已在真實商業環境中證明其價值。人工智能公司 Anthropic、日本的語言模型新創 Karakuri,以及專注於即時生成式影片的 Decart 等企業,都已開始使用 Trainium3。其中 Decart 在即時生成影片應用上,達到了比 GPU 方案快 4 倍的處理速度,成本卻只有一半。這種具體的應用案例,讓我們看到新一代 AI 晶片如何改變商業模式的可能性——原本因為成本過高而無法實現的即時互動式內容,現在變得經濟可行。

百萬晶片規模 開啟超大型 AI 部署時代

對於企業決策者來說,更值得關注的是 AWS 在整體架構上的野心。Trainium3 不僅是一顆晶片,而是一個完整的系統解決方案。AWS 設計了能夠容納 144 顆 Trainium3 晶片的 UltraServer 系統,更進一步,還能將數千台這樣的伺服器連結成 EC2 UltraClusters 3.0,總共可調度高達 100 萬顆晶片——這個規模是前一代的 10 倍。這種規模化能力的提升,意味著企業可以處理更複雜的 AI 任務,例如訓練需要處理數兆個資料點的多模態模型,或是同時為數百萬用戶提供即時 AI 服務。

能源效率成關鍵 降低長期營運成本

從產業趨勢來看,AWS 的這項發布反映了一個更廣泛的轉變:AI 基礎建設正在從「購買運算能力」轉向「最佳化整體擁有成本」。過去企業往往只關注晶片的原始效能,但現在越來越多的財務長開始計算每次訓練或推論的實際成本,包括電力消耗、冷卻需求,以及長期的營運費用。Trainium3 在能源效率上的提升,在這個脈絡下就顯得格外重要——在大規模部署的情況下,40% 的能源節省可以轉化為數百萬美元(約港幣數百萬元)的年度節省。

AI 工廠概念 回應資料主權需求

另一個值得企業領導者思考的面向是技術自主性。AWS 同時在大會上推出了「AI 工廠」概念,期望能讓大型企業和政府機構可以在自己的資料中心內運行 AWS 的 AI 系統。這種混合部署模式回應了許多企業對於資料主權和安全性的顧慮——特別是在金融、醫療、國防等高度監管的產業,能夠在不將敏感資料上傳到公有雲的前提下使用先進 AI 能力,是一個關鍵的商業考量。

技術快速迭代 戰略決策刻不容緩

展望未來 AWS 已經透露正在開發 Trainium4,預計將帶來至少 6 倍的處理效能提升,以及 3 倍的 FP8 運算效能提升。這種快速的迭代週期顯示,AI 晶片市場正進入一個高速演進的階段。對企業而言,這既是機會也是挑戰——如何在快速變化的技術環境中做出正確的投資決策,如何避免技術債務的累積,都需要更具前瞻性的策略思考。

 

從技術競爭到成本競爭 重新定義 AI 戰略

最終,Trainium3 的推出對企業決策者的啟示是:AI 的競爭正在從「誰擁有最好的演算法」轉向「誰能以最經濟的方式大規模部署 AI 能力」。當訓練成本降低一半、運算速度提升數倍時,企業就能更自由地實驗新的 AI 應用場景,更快速地將創新想法轉化為商業價值。在這個脈絡下,選擇合適的 AI 基礎建設供應商,已不再只是 IT 部門的技術決策,而是影響企業競爭力的戰略選擇。

read more
人工智能企業趨勢資訊及通訊科技雲端服務

AWS re:Invent 2025 : Nova 2 大大降低企業 AI 成本 打破「租用」與「擁有」兩難

AWS re:Invent 2025 全球大會上,AWS 正式向市場拋出一個顛覆性命題:企業是否還需要為頂級 AI 能力支付天價?隨著 Nova 2 模型系列、Nova Forge 個人化服務,以及 Nova Act 自動化代理的發布,AWS 正試圖用「性價比」重新定義企業 AI 的遊戲規則。

性價比革命 Nova 2 向行業標準發起挑戰

目前已有數萬家企業在使用 Nova 模型。這次推出的 Nova 2 系列,最大殺手鐧就是在保持智能水平的同時,大幅降低使用成本。對於每天需要處理海量客戶查詢、檔案分析或業務流程自動化的企業來說,這意味著相同的預算可以處理更多業務,或者用更少的預算達到相同效果。

Nova 2 Lite 的定位是日常工作負載的經濟型推理模型,能處理文字、圖像和影片輸入並生成文字輸出。最值得關注的是對比測試結果:與 Claude Haiku 4.5 相比,15 項基準測試中有 13 項持平或更優;與 GPT-4o Mini 相比,17 項測試中有 11 項持平或更優;與 Gemini Flash 2.5 相比,18 項測試中有 14 項持平或更優。這種「同級中的領先性價比」,對於需要控制 AI 成本的企業來說是最實際的考量。

更重要的是 Nova 2 Lite 和 Nova 2 Pro 都內置了網頁查找和程式碼執行能力。這意味著模型可以主動搜尋最新的互聯網資訊並直接運行程式碼,確保回答始終基於最新事實,而不僅僅依賴訓練數據。這項能力對於需要處理即時資訊的客戶服務、市場分析或商業決策場景至關重要。

Nova 2 Pro 則針對需要最高準確度的複雜任務而設計。在公開基準測試中,它與 Claude Sonnet 4.5 的 16 項評測中有 10 項持平或更佳;與 GPT-4o 的 16 項評測中有 8 項持平或更佳;與 Gemini 2.5 Pro 的 19 項評測中有 15 項持平或更佳。這款模型特別適合需要精確決策的高風險場景,例如複雜的財務分析、長期戰略規劃,或是需要處理多份檔案進行綜合判斷的業務。

Nova 2 Sonic 和 Omni:突破多模態的邊界

Nova 2 Sonic 是 AWS 的端到端語音模型,將語音與文字的理解與生成深度融合,實現類人對話體驗。這款模型最獨特的能力是異步處理任務:客戶可以在繼續自然對話、甚至切換話題的同時,系統仍在後台完成諸如訂票等操作。這種「邊聊邊做」的能力,對於客戶服務場景來說是革命性的——傳統的語音助理往往需要用戶等待一個任務完成才能繼續,而 Nova 2 Sonic 讓對話變得更自然流暢。

這款模型提供高達 100 萬 tokens 的上下文視窗,能夠支援長時互動,並在語音與文字之間無縫切換。它可以與 Amazon Connect、第三方語音服務供應商(如 Vonage、Twilio、AudioCodes)以及對話式 AI 框架無縫整合。這種開放性讓企業可以將 Nova 2 Sonic 嵌入現有的客戶服務系統中,而不需要大規模重構。

Nova 2 Omni 則是業界首款既可處理多模態輸入(文字、圖像、影片、語音),又能同時生成文字和圖像的統一模型。它可以一次性處理多達 75 萬單詞的文字、數小時音訊、長影片以及數百頁檔案。這種能力的商業價值在於:企業可以同時分析完整產品目錄、用戶評價、品牌規範和影片素材庫,在一個工作流程中即時生成整套營銷活動內容,包括標題、內文、社交媒體帖子以及視覺方案。這不僅降低了連接多種專業模型的成本與複雜度,更大幅縮短了從創意到執行的時間。

▲會場設有 Sports Forum,讓用家親身感受 AWS 的 AI 如何對運動作貢獻,例如這個射籃區,可投過不同角度的鏡頭,分析玩家射球姿勢,然後給予數據幫助玩家改進。

Nova 2 Omni  用戶回應正面

早期用戶對 Nova 2 Omni 的回饋相當正面,特別是其「單一模型解決所有問題」的能力。在實際測試中,這款模型展現出強大的影片分析能力——不僅能總結影片內容,還能回答複雜問題,例如分析目標受眾、檢測內容是否符合規範,甚至可以將製作教學影片的過程分解成以秒為單位的動作步驟時間軸,這對電視製作和教育培訓行業極具價值。更重要的是,它能將圖片、音訊、文字等所有模態的內容整合到統一的嵌入空間中,讓跨模態的比較和查詢變得簡單高效。相比以往需要先讓模型看圖、寫描述、再用描述查詢的繁瑣流程,這種統一處理方式大幅提升了效率。用戶最常提及的優勢是成本:相比之前用於多模態任務的昂貴模型組合,Nova 2 Omni 的價格被認為極具競爭力。

Nova Forge 打破「租用」與「擁有」的兩難

企業在 AI 應用上長期面臨一個兩難局面:使用通用閉源模型,無法深度融合企業專有知識;從零開始自建模型,又需要投入巨大成本與時間。Nova Forge 提供了第三條路徑。

這項服務的創新之處在於「開放式訓練」:AWS 向客戶開放 Nova 預訓練、中期訓練和後期訓練階段的模型檢查點,讓企業可以在訓練各階段將自身數據與 Amazon Nova 精選數據集進行混合。這意味著企業創建的個人化模型(AWS 稱之為「Novellas」)既擁有 Nova 的完整知識與推理能力,又深刻理解企業的業務語境。

Reddit 的技術總監 Chris Slowe 分享了實際成效:「借助 Nova Forge,我們正在構建更統一的內容審核系統,已經取得令人印象深刻的成果。我們用一套更加準確的解決方案替換了過去的多個不同模型,讓審核流程更高效。將多個專業化機器學習工作流程整合為統一方法,是我們在 Reddit 實施和擴展 AI 方式的一次重要轉變。」

除了模型檢查點和數據混合,Nova Forge 還提供三大關鍵能力。首先是個人化強化學習環境,讓企業可以使用自身業務場景建造訓練環境,讓模型在高度貼近真實應用的模擬場景中持續學習。其次是知識蒸餾能力,企業可以利用更大模型生成的示例訓練更小、更高效的模型,在顯著降低成本與延遲的同時,盡可能保留智能水平。第三是負責任 AI 工具套件,協助企業在模型訓練和應用部署中實施安全控制,滿足合規和治理要求。

Booking.com、Cosine AI、Nimbus Therapeutics、野村綜合研究所、OpenBabylon、Reddit 和 Sony 等企業,已經開始利用 Nova Forge 構建專屬模型。這些早期採用者來自不同行業,說明這項服務的應用場景非常廣泛。

▲筆者於 AWS re:invent 2025 會場內,經常都看到 Nova 攤位經常堆滿業界猛人

 

Nova Act:90% 可靠性的自動化代理

AI 代理的概念並不新鮮,但真正能在生產環境中穩定運行的代理卻鳳毛麟角。Nova Act 最大的突破在於:在早期客戶的瀏覽器自動化工作流程中,達到了 90% 的執行可靠性。這個數字至關重要——對於處理金融交易、醫療紀錄或客戶訂單的企業來說,90% 的可靠性意味著系統可以真正投入大規模使用,而不只是實驗室裡的概念驗證。

Nova Act 通過對個人化版 Nova 2 Lite 模型進行強化學習訓練來實現這種可靠性:系統在數以百計的模擬網頁環境上持續運行數千個任務,使模型在基於 UI 的工作流程中表現出眾。這種「在實戰中學習」的訓練方式,讓模型能夠應對真實世界中各種複雜和不可預測的情況。

實際案例最能說明價值。租車巨頭 Hertz 通過使用 Nova Act 實現租車平台端到端測試自動化,將軟件交付速度提升了 5 倍,徹底消除品質保證瓶頸。這個平台每天處理數百萬美元的預訂業務,以往需要數周才能完成的測試流程,如今在數小時內即可完成。這不僅是效率提升,更讓 Hertz 能夠更快速地推出新功能、回應市場變化。

初創公司 Sola Systems 將 Nova Act 整合到其平台中,每月為客戶自動完成數十萬次工作流程任務,涵蓋電子支付對賬、協調貨運和醫療紀錄更新等關鍵業務操作。1Password 利用 Nova Act 協助用戶以更少的手動操作存取登入資訊,只需一個簡單提示即可在數百個不同網站上自動完成登入步驟。

Amazon 自家的衛星互聯網服務 Amazon Leo 在發布前,借助 Nova Act 消除了品質測試瓶頸。團隊用自然語言撰寫測試場景,並自動在數千個 Web 和流動端測試用例中執行和適配,將原本需要數周的人力工作壓縮到數分鐘完成。在初始運行之後,實際測試執行效率提升至 3 倍,同時不產生額外 AI 成本。

開發人員只需幾分鐘就能在零程式碼視覺化環境中,基於自然語言提示快速構建 AI 代理原型;隨後可以在熟悉的整合開發環境(如 VS Code)中對該代理進行疊代強化,並部署到 AWS 生產環境中。這種「快速原型、深度強化、規模部署」的流程,大幅降低了 AI 代理從概念到生產的門檻。

▲ AWS re:invent 2025 現場設有最新發表的 Amazon Leo 展示,原來團隊在發佈前借助了 Nova Act 去消除了品質測試瓶頸,將原本需要數周的人力工作壓縮到數分鐘完成,同時不產生額外 AI 成本。

Cisco、Siemens、Sumo Logic 的選擇

包括 Cisco、Siemens、Sumo Logic 和 Trellix 在內的眾多企業,已經在利用 Nova 2 模型構建各種創新應用,從 AI 代理威脅檢測到影片理解和語音 AI 助理。這些都是技術密集型、對可靠性和性能要求極高的企業,它們的選擇本身就是對 Nova 能力的最好背書。

Cisco 和 Siemens 這樣的工業巨頭選擇 Nova,說明這些模型在處理複雜工業場景和企業級應用時的可靠性已經達到生產標準。Sumo Logic 和 Trellix 專注於安全和威脅檢測,這些領域對準確性的要求極高,任何誤判都可能造成嚴重後果。它們採用 Nova 2 模型構建 AI 代理威脅檢測系統,證明了這些模型在高風險場景下的表現。

 

給企業決策者的啟示

AWS 這次發布傳遞出幾個關鍵訊號。首先 AI 的競爭焦點正在從「誰更強大」轉向「誰更經濟」。當多個模型的性能趨於接近時,性價比將成為決定性因素。Nova 2 系列對標行業頂尖模型的定價策略,正是這一趨勢的體現。

其次個人化能力將決定 AI 能否真正創造業務價值。通用模型固然強大,但只有深度融合企業專有數據和業務邏輯的模型,才能真正解決企業獨特的痛處。Nova Forge 的「開放式訓練」模式,為此提供了一條經濟可行的路徑。

第三,AI 代理正在從概念走向實用。90% 的可靠性是一個分水嶺——這意味著企業可以放心地將關鍵業務流程交給 AI 代理處理。Hertz 的 5 倍速度提升、Sola Systems 的數十萬次月度自動化任務,都是實實在在的商業價值。

最後多模態整合能力將成為下一個競爭高地。Nova 2 Omni 能夠同時處理和生成多種模態內容,這種「一站式」能力大幅降低了系統複雜度和整合成本。對於需要處理多種數據類型的企業來說,這種整合能力的價值遠超單一功能的強化。

AWS 此次發布的核心邏輯很清晰:用性價比優勢降低企業採用門檻,用個人化能力提升業務契合度,用高可靠性確保生產級應用,用多模態整合簡化系統架構。這是一套完整的企業 AI 解決方案,而不僅僅是幾個新模型。對於正在思考 AI 戰略的企業領導者來說,AWS 提供的不是技術選項,而是一條清晰的商業路徑。

read more
人工智能資訊及通訊科技雲端服務

AWS re:Invent 2025 發表 Frontier Agents AI 代理 : 6 人做出 30 人工作 並提早 16 個月完成

全球企業仍在掙扎於生成式 AI 投資回報率時,AWS  行政總裁 Matt Garman 於 re:Invent 2025 台上直言:「許多企業尚未看到與 AI 承諾相匹配的投資回報。」但他隨即宣布一個可能改變遊戲規則的解決方案:三款能夠連續自主工作數天的 AI 代理。

Garman 預測,未來 80% 至 90% 的企業 AI 價值將來自代理技術。這場轉變對企業的衝擊將如同互聯網或雲端運算本身一樣深遠。這番宣言標誌著 AWS 正式向 Microsoft、Google 及 OpenAI 在企業 AI 市場的領先地位發起挑戰。

從輔助工具到自主員工的典範轉移

這次發布的核心在於一個簡單而強大的概念:AI 不再只是協助人類工作,而是能夠獨立完成整個工作流程。這些「frontier agents」能處理複雜的多日項目,無需人為介入。對於長期受技術債務和人手短缺困擾的企業而言,這可能是他們一直在等待的突破。

Garman 在主題演講中展示了一個令人印象深刻的實際案例:原本需要 30 人團隊花費 18 個月完成的軟件開發項目,現在只需 6 人在 76 天內就能完成。這不是理論上的承諾,而是 AWS 內部團隊在實際規模下驗證的成果。事實上 AWS 上週剛決定將 Kiro 正式定為公司內部所有開發團隊的標準工具。

三款 AI 代理分工明確 涵蓋開發全流程

AWS 這次發布的三款 AI 代理各有專長,分別針對企業軟件開發中最耗時的環節。Kiro Autonomous Agent 扮演虛擬開發者角色,能夠連續自主工作數天,完成編碼任務。當一段關鍵程式碼被 15 個企業軟件使用時,傳統方式需要逐一分配和驗證每次更新,而 Kiro 可以在單一指令下獨立完成全部 15 項修改。這種批量處理能力令開發團隊能專注於更高價值的架構決策。

負責系統安全的 Amazon Security Agent 則充當虛擬資安工程師,從設計階段就開始協助建立安全的應用程式。相片分享平台 SmugMug 的經歷最能說明其價值。該公司資深軟件工程師 Andres Ruiz 透露,這款代理發現了一個所有現有工具都無法捕捉的業務邏輯漏洞,該漏洞不當地暴露了用戶資料。Ruiz 表示:「對任何傳統工具來說這都是不可見的」,「但 Security Agent 能夠將資訊脈絡化、解析 API 回應並找出異常。」

監控運維的 Amazon DevOps Agent 則作為 24 小時待命的運維團隊成員,協助回應系統故障、識別根本原因並預防未來問題。澳洲聯邦銀行管理著超過 1,700 個 AWS 帳戶,面對一個複雜的網絡問題,這類問題通常需要資深工程師花費數小時診斷。但 DevOps Agent 在 15 分鐘內就找出了根本原因。該銀行雲端服務主管 Jason Sandery 表示,這款代理「像資深工程師一樣思考和行動」。

Kiro Autonomous Agent 寫代碼、 Amazon Security Agent 找漏洞、 Amazon DevOps Agent 自動故障修復。AI 流水線讓開發時間大大縮減。

▲ AWS re:Invent 現場設有 Kiro 「鬼屋」,可以體驗到開發者的「恐佈」

 

統一管理平台確保 AI 代理安全可控

面對企業對 AI 代理自主運作的擔憂,AWS 同時推出了 Amazon Bedrock AgentCore 的強化管理功能,期望能讓企業為這些 AI 代理設定明確的行為規限。AgentCore 中的 Policy 功能允許團隊透過實時、確定性的控制,主動阻止未經授權的代理行動,這些控制在代理程式碼之外運作。

這意味著企業可以設定具體的使用條件。例如客戶服務代理可以自動處理 1,000 美元以下的退款,但超過這個金額就必須將決策提交給人類主管審批。數據保護公司 Druva 的案例顯示,透過 AgentCore 設定適當的政策,開發人員可以放心創新,因為他們知道代理將保持在定義的合規範圍內。這令企業能夠擴展代理平台,同時維持嚴格的安全標準。

同時 AgentCore Evaluations 協助開發團隊根據代理的行為持續檢查其品質,而 AgentCore Memory 則引入了情節功能,協助代理從經驗中學習,改善決策。這些功能共同確保 AI 代理不僅能夠自主運作,還能在安全可控的框架內持續進化。

市場機會窗口正在快速關閉

根據 Gartner 預測, 2026 年底將有 40% 的企業應用程式整合任務型 AI 代理,相比 2025 年不足 5% 的水平大幅躍升。這種爆炸性成長為企業領導者帶來了機遇,但也伴隨著緊迫性。

市場研究公司的數據描繪出一幅更宏大的圖景。全球 AI 代理市場預計將從 2023 年的 37 億美元(約港幣 HK$288.6 億元)增長到 2032 年突破千億美元,複合年增長率達 45.3%。約 85% 的企業預計將在 2025 年底前實施 AI 代理,主要目標是提升效率和改善客戶互動。

Gartner 分析師發出了一個明確的警告:CIO 只有三到六個月的時間來定義其 AI 代理策略,否則將落後於行動更快的競爭對手。在樂觀情境下,代理 AI 到 2035 年可能推動約 30% 的企業應用軟件收入,超過 4,500 億美元(約港幣 3.51 萬億元)。

 

Lyft 案例讓 Bedrock 更有說服力

AWS 這次發布正值科技巨頭在 AI 代理領域展開激烈競爭之際。網約車公司 Lyft 使用 Anthropic 的 Claude 模型透過 Amazon Bedrock 創建了一個 AI 代理,處理司機和乘客的問題,將平均解決時間縮短了 87%。今年該代理的司機使用率增長了 70%。

Microsoft 的 GitHub Copilot 正在演變為多代理系統,Google 則在 Gemini 中添加自主功能。但 AWS 的差異化定位在於強調「數天級別」的自主運作能力 ── 這是一個更高的門檻。根據 Andreessen Horowitz 對 100 位企業 CIO 的調查,一家高成長 SaaS 公司的技術長報告稱,透過類似工具,其程式碼的近 90% 現在由 AI 生成,遠高於 12 個月前的 10% 至 15%。

 

企業應該如何應對

Garman 對代理技術的定位非常明確:「通用 token 毫無用處,除非它們了解你的業務。」這意味著企業不能只是購買現成的 AI 解決方案,而需要思考如何將這些工具與自身的業務流程深度整合。

對於考慮採用 AI 代理的企業領導者,幾個關鍵問題值得深思:當 AI 能夠連續工作數天處理複雜任務時,現有的團隊結構應如何調整?在代理自主決策與人工監督之間,什麼樣的平衡點最符合組織的風險承受度?以及最重要的──如果競爭對手已經開始使用這些工具並獲得 5 倍甚至 10 倍的效率提升,你的企業能承受等待的代價嗎?

值得注意的是,Garman 強調這些代理「不是人員的替代品,而是讓人們在工作中更有效率的工具。」AWS 在設計中保留了人類監督機制:DevOps 代理不會自動執行修復,而是生成詳細的緩解計劃供工程師批准;編碼代理則以 pull request 形式提交工作,確保程式碼合併前經過審查。

McKinsey 最新調查顯示,23% 的受訪者表示其組織正在企業內部某處擴展代理 AI 系統,另有 39% 已開始試驗。但這些數字也揭示了一個事實:大多數企業仍處於觀望或初步試驗階段。對於行動迅速的企業而言,這正是建立競爭優勢的窗口期。

Garman 在演講中強調:「世界不會放慢腳步──事實上,如果有一件事我們都可以確定,那就是更多變革即將到來。」在這場 AI 代理革命中,企業領導者面臨的不是是否採用的問題,而是何時以及如何採用的決策。

read more