close
企業趨勢

Claude Mythos 觸發華府警覺 Trump 政府擬加強 AI 模型安全審查


123

美國總統 Trump 政府正考慮要求五角大廈主導新 AI 模型安全評估,並將這套審查用於聯邦、州與地方政府部署前風險把關。這項變化直接導火線,是 Anthropic 旗下 Claude Mythos 令華府重新正視高階模型在網絡攻擊、漏洞挖掘與政府使用上風險。

白宮國家網絡主管辦公室上星期連開閉門會議,AI 與資訊保安企業、產業協會均有參與;同時間 Anthropic 亦與白宮高層、財政部與安全官員接觸,討論 Mythos 能力與政府使用邊界。若政策成形,代表 Trump 陣營雖曾撤銷 Biden 時期 AI 行政命令,卻可能以另種方式把「先測試、再部署」重新放回政府採購與公共部門 AI 監管架構中。

政策轉向的核心邏輯

從政策角度看,這不是單純科技新聞,而是美國政府對「前沿模型」風險認知升級信號。Axios 指出,白宮正在評估讓五角大廈成為政府 AI 安全測試前線機關,意味聯邦、州與地方政府在導入模型前,可能先接受更嚴格安全與能力驗證。Reuters 早前亦報道,2024 年白宮已要求聯邦機構在 12 月前採取具體 AI 防護措施,顯示政府端其實早已有安全治理框架,只是 Trump 時期曾大幅轉向放寬監管。

Anthropic Mythos 成為轉折點,原因在於它被描述為能在數星期內發現數以千計漏洞,並在資訊保安情境中展現接近「機械規模」攻防能力。這令美國政府看到矛盾:同套 AI 工具既可用於找出系統弱點,也可能被對手用來放大攻擊效率。因此若審查機制落實,重點不只是限制使用,而是把模型能力、部署場景、資料接觸範圍與失控風險一併納入治理。

產業分歧正在擴大

從產業反應看,Anthropic、OpenAI、Google 與政府之間已形成 2 條路線:一方主張在嚴格護欄下讓 AI 進入政府與軍事系統,另一方則強調模型若缺乏限制,可能造成監控濫用或武器化風險。OpenAI 在與五角大廈協議中強調多層保護,並禁止用於大規模監控與自主武器,反映大型模型公司正試圖以條款換取政府合作空間。Anthropic 則堅持保留自身安全紅線,拒絕刪除其模型護欄,才引爆與國防部衝突。

專家與市場亦出現明顯分歧。Anthropic 創辦人兼行政總裁 Dario Amodei 與白宮高層接觸後,政府態度顯著軟化,說明華府仍認為這類模型在國安與資訊保安上有不可替代性。另一方面,Reuters 報道歐洲執委會、歐洲央行與其他監管者亦在關注 Mythos 對金融穩定與資訊保安影響,顯示這場爭議不只在美國內部發酵。這種跨市場壓力會推動 AI 公司把「安全測試能力」視為競爭門檻,而非附加功能。

從禁令到審查

回看整個時間線,這場政策轉彎其實是逐步累積結果。2026 年 2 月,五角大廈先把 Anthropic 列為供應鏈風險,並限制其在軍方與承包商中使用;隨後 Anthropic 公開拒絕撤除安全護欄,雙方關係急速惡化。到 4 月,Mythos 發布後令全球監管機構提高警覺,白宮開始與 Anthropic 對話,並重新檢視政府層級 AI 風險框架。

更早背景可追溯至 Biden 政府時期 AI 風險治理思路。Reuters 曾報道,白宮要求聯邦機構為 AI 應用設下具體安全措施,而 NIST 的 AI Risk Management Framework 亦早已把治理、衡量、管理與風險地圖列為核心方法。現在 Trump 政府若把這套邏輯改寫成五角大廈主導審查制度,代表美國在 AI 問題上正從「是否監管」轉向「由誰監管、如何監管」。

下一步影響

對企業而言,這類政策一旦落實,最直接影響就是政府採購門檻上升,AI 供應商必須證明模型可被測試、追蹤及限制。對市場而言,這會推動資訊保安、雲端與模型治理服務需求升溫,也會令「可審計性」成為公共部門 AI 競標關鍵指標。接下來值得觀察的是:白宮會否把這套制度寫成行政命令,還是先以跨部會指引方式試水溫。

來源: Axios