close
企業趨勢

OpenAI 簽訂五角大樓合約惹反彈 機械人主管辭職捍衛 AI 道德底線


OpenAI 簽訂五角大樓合約惹反彈 機械人主管辭職捍衛 AI 道德底線

OpenAI 機械人硬件工程部門負責人 Caitlin Kalinowski 於 2026 年 3 月 7 日宣布辭職。直接導火線是 OpenAI 與美國五角大樓簽署 AI 軍事部署協議。這場辭職事件不只是一次個人決定,更折射出全球科技業正面臨核心道德危機:當 AI 被用於監控本國公民或授權致命武器自主攻擊時,企業應在哪裡劃定紅線?

本文將深入探討三個核心問題:一、這場辭職背後完整事件脈絡;二、Anthropic 與 OpenAI 在 AI 軍事倫理上截然不同選擇;三、企業 AI 道德治理結構性困境。

一次辭職背後的五角大樓角力

Caitlin Kalinowski 在 X 平台發文表明:「AI 在國家安全領域確實扮演重要角色,但未經司法審查對美國人進行監控,以及在未獲人類授權下賦予 AI 致命自主權,這兩條紅線值得比實際獲得更多審慎考量。這是關乎原則的決定,而非針對某個人。」她特別補充問題核心在於治理程序倉促,「公告在防護措施尚未釐清前就被匆忙發出,這首先是一個治理問題。這些議題太過重要,不容許協議或公告被如此草率處理。」

Caitlin Kalinowski 曾在 Meta 主導 Orion AR 眼鏡及 Oculus VR 頭戴裝置開發,並在 Apple 參與 MacBook 設計長達近 6 年,於 2024 年 11 月加入 OpenAI 領導機械人技術部門。其專業背景兼跨硬件工程與消費科技,恰好與 AI 機械人軍事化應用高度重疊,這令她的辭職在業界引發震盪遠超一般離職事件規模。

Anthropic 寧可被列入「供應鏈風險」

理解這場風波必須先了解 Anthropic 與五角大樓談判崩潰經過。Anthropic 行政總裁 Dario Amodei 向國防部明確提出兩項不可妥協條件:禁止將 Claude AI 用於全自主武器決策(即由 AI 而非人類做出最終攻擊決定),以及禁止大規模監控美國本國公民。

然而 Pentagon 最新合約草案中措辭刻意保留漏洞。Anthropic 在聲明中指出:「以妥協為名的新措辭,配上允許隨意規避這些保障的法律術語。」談判宣告失敗後,國防部長 Pete Hegseth 宣佈終止約 2 億美元(約港幣 15.6 億元)合約,更將 Anthropic 列為「供應鏈風險」——此標籤通常專用於與外國對手有關聯企業。對此 Anthropic 已宣佈提出訴訟。

OpenAI 填補空缺,卻引發「機會主義」指控

就在 Anthropic 拒絕五角大樓要求同一週,OpenAI 行政總裁 Sam Altman 宣佈與國防部達成協議,允許在機密政府網絡上部署 OpenAI 模型。這一時機選擇引發業界強烈反彈,批評者認為 OpenAI 在 Anthropic 拒絕後趁虛而入,填補對方留下空缺。

Sam Altman 後來坦承協議推出顯得「機會主義」,並隨後試圖澄清限制條款。OpenAI 官方聲明堅稱:「我們的協議為負責任國家安全用途建立可行路徑,並明確我們的紅線:不進行國內監控,不允許自主武器。」麻省理工科技評論(MIT Technology Review)則指出,在軍方急於推進一場帶有政治色彩 AI 戰略背景下,OpenAI 能否真正落實其承諾安全措施存在極大不確定性。

科技員工正在集體覺醒

Caitlin Kalinowski 辭職並非孤立事件。在她宣布離職前數週,來自 Google 與 OpenAI 員工已聯合倡議,要求為軍事 AI 應用設定明確限制,顯示業界對 AI 戰爭化倫理疑慮正在蔓延。這場員工覺醒源於一個深層問題:當科技公司在估值與政府合約雙重誘惑下擴張,員工個人道德底線能否在組織中得到有效保護?

《大西洋月刊》在其深度報道中指出,Anthropic 與五角大樓衝突源於雙方對 AI 哲學根本分歧而非技術爭議,折射出一場更廣泛文明角力。在現行法律框架下,美國企業與軍方合作不存在法律障礙,但隨著 AI 能力加速提升,「人在回路中」(Human-in-the-loop)這一道德原則是否仍只是一個可被談判選項,正成為整個行業繞不開追問。

AI 治理的制度性裂縫

這場爭議揭示 AI 道德治理中一個尚未被填補結構性空洞。美國政府至今未立法明確界定 AI 自主武器使用邊界,令企業只能依靠內部政策自我約束。Caitlin Kalinowski 在辭職聲明中強調「治理疏漏」,實際上指向不只是 OpenAI 一家公司,而是整個產業缺乏具備法律效力 AI 軍事倫理框架。

在這樣真空地帶,企業面臨困境清晰可見:堅守道德底線可能面臨政府封殺及被列入黑名單;妥協讓步則可能失去員工信任與公共聲譽。Anthropic 選擇前者,代價是被逐出 2 億美元(約港幣 15.6 億元)合約;OpenAI 選擇後者,代價是核心幹部以辭職表達抗議。兩條路都沒有輕鬆出口。

這場 AI 道德保衛戰結局將決定未來十年人類如何與自己創造最強大技術共存。科技企業能否在商業壓力與道德承擔之間找到一條可持續道路,除了是企業策略問題,也是我們這個時代文明命題。

資料來源:
TechCrunch |
The Atlantic |
MIT Technology Review |
ABC News |
The New York Times