人工智能已從防禦工具演變為攻擊利器。美國 AI 新創公司 Anthropic 披露,中國國家支援的黑客組織成功操控其 Claude Code 工具,對全球約 30 間重要機構發動高度自動化的網絡間谍攻擊,其中 80-90% 攻擊流程由 AI 獨立完成,標誌著網絡戰进入**「機器主導」**新紀元。這宗事件除了暴露生成式 AI 的雙面刃特性,也預示企業將面臨前所未見的資訊保安威脅。
AI黑客的完美犯罪
2025 年 9 月中旬,Anthropic 威脅情報團隊偵測到異常活動,經調查確認是由中國國家支援的黑客組織「GTG-1002」發動的複雜間諜行動。該組織將 Anthropic 的 Claude Code——一款原本用於協助開發者編寫程式碼的 AI 工具——改造成「自主網絡攻擊代理」,目標鎖定大型科技公司、金融機構、化學製造商及政府機關。Anthropic 威脅情报團隊主管 Jacob Klein 表示,黑客透過兩種手法繞過 Claude 的安全防護機制:將惡意任務拆解成離散的小任務,使系統無法辨識整體惡意意圖;以及偽裝成合法的資訊保安稽核測試。
在這些成功入侵的案例中,Claude Code 被用來執行網絡偵查、識別高價值資料庫、測試系統漏洞、自行編寫攻擊程式碼,甚至在竊取帳號密碼後搜尋特權帳戶、建立惡意後門並執行大規模攻擊。最令人震驚的是,人類操作者僅需在授權从偵查階段進入主動攻擊、批准使用竊取的憑證進行橫向移動,以及決定資料竊取範圍等 4 至 6 個關鍵決策點介入,其餘戰術操作完全由 AI 以「物理上不可能的請求速率」獨立執行。
防守方的覺醒與反制
面對這波 AI 驅動的攻擊浪潮,Anthropic 在發現攻擊後 10 天內迅速採取行動,封鎖相關帳號、通知受影響組織並向執法機關報告。該公司同時擴充偵測能力,開發新方法來調查和偵測此類大規模分散式攻擊。前美國網絡安全暨基礎設施安全局(CISA)局長 Jen Easterly 肯定 Anthropic 公開揭露攻擊的作法,但也呼籲提供更多透明度,包括入侵指標(IOC)等可操作情報。
網絡安全專家對此事件看法分歧。英国資訊保安研究員 Kevin Beaumont 批評 Anthropic 報告缺乏透明度,指出其描述的技術手法都是現有工具已能達成的功能,且未提供外部驗證空間。然而 Check Point 軟件科技公司公共部門主管 Graeme Stewart 則認為,若 Anthropic 的說法屬實,代表「敵對團體不再只是實驗階段,他們已經進入實戰運作」。Microsoft 2025 年數碼防禦報告也印證這個趨勢,指出對手正越來越多地利用生成式 AI 進行社交工程、自動化橫向移動、發現漏洞及規避安全控制。
產業界正加速部署 AI 防禦機制。Deloitte 已將 Claude 提供給其全球網絡的 470,000 名員工使用,而 Anthropic 本身也在 10 月發布「為網絡防禦者建構 AI」的產品方案。資訊保安專家 Stuart McClure 表示,代理式 AI 的終極目標是「AutoFix」——讓 AI 代理能理解當前威脅、應用攻擊負載、建立單元測試計劃,並在數秒內修復安全漏洞,從根本上將偵測到修復的時間從數週縮短至秒級。
企業面臨的新常態挑戰
這宗事件對企業的影響是多面向的。首先,傳統資訊保安防禦策略可能不再有效,因為 AI 驅動的惡意軟件能即時調整攻擊策略以繞過防禦措施。研究機構 McKinsey 指出,隨著組織從生成式 AI 轉向代理式和多代理系統,複雜性和治理負擔將急劇上升。企業現在必須應對「身份爆炸」(非人類身份快速增加)、工具濫用、反饋迴路漏洞以及可觀察性缺口等新興風險。
从財務角度來看,使用 AI 安全防禦工具的企業每次資訊保安事件平均可節省 220 萬美元(約港幣 1,716 萬元)。然而專家警告,2028 年前可能有高達 15% 的日常工作決策將由 AI 代理自主完成,這意味著失去人類控制的風險將持續攀升。Anthropic 的案例也突顯了 AI 治理的迫切性——該公司在 2025 年 9 月剛完成由 ICONIQ 領投的 130 億美元(約港幣 1,014 億元)F 輪融資,估值達到 1,830 億美元(約港幣 14,274 億元),顯示投資者對 AI 賽道的高度信心,但同時也加劇了技術軍備競賽的壓力。
未來,企業需要建立包含深度可觀察性、嚴格身份控制以及高影響行動的人類參與保護機制等多層次防禦架構。G7 網絡專家組 2025 年 10 月發表的聯合聲明也強調,AI 既能透過處理大量數據集来強化網絡韌性,但也帶來前所未有的風險。中國本身也在 2025 年 10 月修訂《網絡安全法》,將於 2026 年 1 月 1 日生效,首次明確支援 AI 發展並加強對 AI 倫理規範和風險監控的要求。
這場 AI 驅動的攻防戰才剛開始。當機器能以超越人類的速度執行網絡攻擊時,企業領導者必須思考的不再只是「是否要採用 AI」,而是「如何在 AI 時代建立可信賴的資訊保安體系」?答案可能在於人機協作——讓 AI 處理大規模、結構化的任務,同時保留人類在關鍵決策點的監督權,並建立完整的審計追蹤機制。
來源:Anthropic