超過 200 位全球重量級人士,包括 10 位諾貝爾獎得主及來自 OpenAI、Google、Microsoft 等 AI 巨頭的頂尖科學家,於 9 月 22 日在聯合國大會期間發表聯合公開信,緊急呼籲各國政府在 2026 年底前建立具約束力的人工智能「紅線」協議。 這份名為《全球 AI 紅線呼籲》的聲明警告,AI 技術發展軌跡正帶來「前所未見的危險」,各國必須果斷行動以免錯失有效干預的關鍵時機。 本文將深入分析此次史無前例的跨領域聯合行動背景、專家多元觀點,以及對全球 AI 治理格局的深遠影響。
史無前例的全球聯合行動
此次聯合聲明的發起背景突顯 AI 安全問題的急迫性。聯名簽署者陣容空前強大,除了有諾貝爾和平獎得主瑪麗亞·雷薩 (Maria Ressa)、經濟學獎得主達隆·阿西莫格魯 (Daron Acemoglu) 等 10 位諾貝爾桂冠得主,更有「AI 教父」傑佛瑞·辛頓 (Geoffrey Hinton) 和約書亞·本吉奧 (Yoshua Bengio) 等深度學習先驅。值得注意的是,來自競爭激烈的 AI 巨頭,如 Anthropic 首席資安官傑森·柯林頓 (Jason Clinton)、Google DeepMind 研究科學家伊恩·古德費洛 (Ian Goodfellow)、OpenAI 聯合創辦人沃傑赫·薩倫巴 (Wojciech Zaremba) 等頂尖專家,罕見地放下商業競爭共同發聲。
這份聲明特別強調「AI 可能很快就會遠遠超過人類能力」,並加劇包括人為設計疫情、大規模錯誤資訊傳播、兒童操控、國際安全威脅、大規模失業及系統性人權侵犯等風險。專家們警告,許多先進 AI 系統已表現出欺騙性和有害行為,但這些系統仍被賦予更多自主權來採取行動和做決策。根據最新研究顯示,66% 的用戶在未評估準確性的情況下依賴 AI 輸出,56% 在工作場所使用 AI 工具時出現錯誤,突顯當前 AI 治理框架的不足。
專家呼籲建立明確禁令框架
加州大學柏克萊分校電腦科學教授史都華·羅素 (Stuart Russell) 在相關記者會中明確指出,AI 紅線應為國際一致同意、在任何情況下都被視為過於危險而禁止的應用。他強調:「通用 AI 的問題在於可能出錯的方式太多,很難簡單寫下安全的定義。但我們可以明確列出絕對不希望系統執行的行為,這就是行為紅線」。
聯合聲明提出的核心禁令包括:禁止 AI 系統指揮核武庫、操作任何形式的致命自主武器系統、進行大規模監控、實施社會評分、執行網絡攻擊,以及未經披露冒充他人等用途。羅素教授特別提到:「我們不希望 AI 系統在未經許可下自我複製,不希望它們侵入其他電腦系統,不希望它們向恐怖分子提供生物武器製造建議」。
諾貝爾和平獎得主瑪麗亞·雷薩在聯合國大會開幕致詞中警告,如果缺乏適當保障措施,AI 可能引發「認知混亂」並促成系統性人權濫用。她特別強調資訊完整性的重要性,稱其為「所有戰鬥之母」,並呼籲終結「大型科技公司的有罪不罰現象」。
全球 AI 治理格局的分化與挑戰
目前全球 AI 治理呈現明顯的地緣政治分化。歐盟已率先通過《AI 法案》,建立風險分級制度並禁止某些「不可接受」的 AI 應用,如即時生物辨識監控和社會信用評分系統。中國則採取更具針對性的監管方式,要求特定標準的 AI 服務必須向當局備案演算法,並建立專門的網上入口網站進行管理。
美國的做法相對保守,主要依靠現有法律框架和企業自律。雖然美中兩國已達成雙邊協議,確保核武器系統保持在人類控制之下,但全球性共識尚未形成。香港方面,數碼政策辦公室已於 2025 年 4 月發布《香港生成式人工智能技術及應用指引》,但專家指出香港市場規模較小,難以採用獨立的生成式 AI 法律體系。
根據 SaferAI 最新評估報告,即使是表現最佳的 AI 公司 Anthropic,在風險管理成熟度方面也僅獲得 35 分 (滿分 100 分),沒有任何 AI 公司的評分超過「薄弱」等級。這突顯當前企業自律機制的不足,也為建立強制性國際紅線提供了有力論證。
聯合國機制建立與未來展望
聯合國已於 2025 年 8 月 26 日正式通過決議 (A/RES/79/325),建立兩個全新的 AI 治理機制:「聯合國獨立國際 AI 科學小組」和「全球 AI 治理對話」。 由 40 人組成的科學小組將負責發布基於證據的科學評估報告,分析 AI 相關的機會、風險和影響,每年向全球對話平台提交政策相關但非規範性的摘要報告。
然而這些新機制面臨資金不確定性、日益激烈的全球 AI 競賽,以及 AI「擁有者」與「缺乏者」之間日益擴大的鴻溝等挑戰。The Future Society 的 AI 治理主管妮琪·雅迪斯 (Niki Iadis) 指出,僅靠「自願承諾」並不足夠,最終需要一個具有「權威」的獨立全球實體來定義、監督和維護這些紅線。
這次史無前例的聯合呼籲標誌著全球 AI 治理進入關鍵轉捩點。隨著技術發展速度不斷加快,各國政府面臨在創新促進與風險控制之間取得平衡的艱難抉擇。2026 年底的時限設定反映了專家們對「有效干預窗口」即將關閉的深度憂慮。未來兩年將成為決定人類能否成功駕馭 AI 技術,確保其為全人類福祉服務的關鍵時期。