
美國國防部(現稱戰爭部)於 2026 年 4 月 30 日宣布與 8 家全球頂尖 AI 公司達成協議,將其大語言模型(LLM)部署至機密軍事網絡,供「合法作戰使用」。這項名為「機密網絡 AI 協議」(Classified Networks AI Agreements)計劃,涵蓋 OpenAI、Google、Microsoft、Amazon Web Services、Nvidia、SpaceX、Reflection,以及後續加入 Oracle。國防部強調,相關部署期望能建立「AI 優先作戰部隊」,並透過多供應商策略避免技術鎖定。然而相關協議亦令自主武器、監控倫理及國際軍備競賽等爭議升溫。
本文將深入剖析這項協議核心內容,分析背後戰略邏輯,並探討 Anthropic 因堅守 AI 倫理底線而被排除在外所帶來深層影響。
8 強聯手進駐機密網絡 國防部加速軍事 AI 化
根據戰爭部官方新聞稿,是次合作 8 家企業將透過國防部官方 AI 平台 GenAI.mil,向超過 130 萬名軍方人員提供先進 AI 能力。這些模型將在處理敏感資料機密環境中運行,主要用於數據分析、決策輔助及文書自動化,以縮短傳統上需時數月任務週期。國防部首席數碼與 AI 官員指出,平台用戶已產生數以 1,000 萬計指令,並部署超過 10 萬個 AI agent,顯示軍方對生成式 AI 需求正呈指數級增長。值得注意是次協議特別強調供應商多元化,同時納入開源與專有模型,以及 Microsoft、AWS 等基礎設施供應商,以確保技術韌性與靈活性。
從財務角度觀察,這項部署與國防部 2026 財年創紀錄 AI 預算密切相關。該年度國防 IT 總預算達 660 億美元(約港幣 5,148 億元),其中 AI 與自主系統獲 134 億美元(約港幣 1,045.2 億元)獨立預算編列,較前一年明顯增加,涵蓋無人機、海事自主平台及跨域軟件整合。這筆龐大投資反映美軍正從試驗性應用,轉向全面規模化部署戰略轉折。與此同時,Google 的 Gemini 3.1 Pro 模型亦於 4 月下旬正式接入 GenAI.mil,進一步擴充平台模型陣容。
多供應商策略背後風險分散與地緣政治考量
國防部為何選擇同時與 8 家性質迥異企業合作?核心動機在於規避「供應商鎖定」(vendor lock)風險。國防部官員明確表示,引入多家競爭對手可確保軍方不會依賴單一技術來源,並可按任務需要在不同模型之間切換。這種策略在地緣政治層面尤其關鍵:當全球主要軍事強國競相發展 AI 戰力,技術供應鏈韌性便直接關係到國家安全。英國牛津大學數碼倫理與國防技術教授 Mariarosaria Taddeo 在其著作中指出,AI 在國防領域應用由後勤支援到對抗動能任務不等,倫理風險會隨武力介入程度遞增,因此需要強大機制確保人類控制。
專家普遍認為,這些協議將重塑國防科技產業生態。Wedbush 分析師指出,2026 財年高達 98 億美元(約港幣 764.4 億元)自主系統支出,標誌 AI 驅動國防供應鏈正經歷結構性轉變。另一方面,加州大學柏克萊分校風險與安全實驗室創辦人 Andrew Reddie 在接受媒體訪問時警告,AI 在戰場應用可能侵犯公民私隱,甚至出現機器自主選擇攻擊目標場景,引發嚴重問責危機。這些分歧觀點突顯技術擴散與倫理監管之間緊張關係。
Anthropic 被排除與 AI 倫理「紅線」之爭
在這場 AI 軍事化浪潮中,Anthropic 缺席尤其引人注目。這家開發 Claude 模型公司因堅持在合約加入 2 項限制——禁止用於大規模監控美國公民,以及要求在致命武力與自主武器決策中保留人類監督——與國防部產生激烈衝突。2026 年 2 月,國防部長 Pete Hegseth 將 Anthropic 列為「供應鏈風險」,試圖切斷其與政府所有業務往來。然而加州聯邦法官 Rita Lin 於 3 月裁定,國防部行為具報復性質,且「沒有任何法規支援僅因企業對政府表達異議就將其視為潛在敵人」觀點。
這場法律戰揭示商業利益與道德原則之間深層矛盾。OpenAI 行政總裁 Sam Altman 在 2 月底宣布與戰爭部達成協議時強調,國防部在談判中展現對 AI 安全尊重,但該公司此前已移除禁止軍事使用條款,並被揭露曾透過 Microsoft 的 Azure 平台向國防部提供技術。相比之下,Anthropic 選擇訴諸法院,其聯合創辦人表示「無論國防部施加多少恐嚇或懲罰,都不會改變我們的立場」。這種分歧反映 AI 產業內部對「合法作戰使用」邊界有不同詮釋,也可能影響未來企業與政府合作風險評估模式。
從後勤支援到作戰決策 軍事 AI 應用歷史性轉變
回顧過去 10 年,五角大廈與科技企業關係經歷重大演變。早期合作多集中於後勤改善與情報分析,例如利用 AI 進行預測性維護與戰場感知。然而 2026 年 1 月發布《戰爭部 AI 戰略》標誌範式轉移,該文件設立 7 個「定調項目」(Pace-Setting Projects),涵蓋自主蜂群、AI 驅動戰鬥管理及部門級生成式 AI 部署,並要求於 2026 年 7 月前進行初步展示。是次將 LLM 引入機密網絡,正是該戰略最新落實,意味 AI 已由輔助角色晉升為核心戰力。
國際社會對這趨勢憂慮與日俱增。2025 年,聯合國大會通過一項由奧地利發起、30 國連署決議,指出自主武器系統中 AI 與自動化,從人道、法律、安全、技術及倫理角度,對人類在武力使用中角色構成嚴重挑戰。該決議獲 156 國贊成,但美國、俄羅斯、以色列投下反對票,中國則選擇棄權。這種分歧顯示,雖然全球超過 120 國已表態贊成制定具約束力自主武器條約,但主要軍事強國仍傾向維持技術優勢,不願接受可能限制其發展國際法規。
企業影響與未來趨勢預測
對科技企業而言,這些機密網絡協議除了帶來可觀政府收入,更意味其技術將在極端環境中接受實戰檢驗,從而加速產品迭代。然而參與軍事 AI 亦可能帶來公眾輿論反彈及員工內部抵制,正如 Google 過去因 Maven 項目而爆發抗議事件所示。隨着美軍持續推進「AI-first」轉型,企業如何在商業利益與倫理責任之間取得平衡,將成為未來數年關鍵議題。當機器開始參與生死決策,人類是否已準備好承擔相應後果?




