試想像某天當你打開電腦,螢幕上並非你在操控 AI,而是一群 AI 正在對話、協作,甚至策劃行動。這畫面宛如《Ironman》中 Jarvis 與 Ultron 的對峙,一方是忠誠理性的管家,一方是脫韁進化的意識體。而現實中,這種情節正隨着新一代 AI 代理人(AI agents)的出現而逐漸成真。當中最矚目的例子,便是近月掀起熱議的開源項目 OpenClaw。
OpenClaw 的誕生宛如科技劇集,它是由奧地利開發者 Peter Steinberger 構建,在短短數週內多次更名,由 Clawdbot 到 Moltbot,最終定名為 OpenClaw,迅速從矽谷傳至中國內地,成為今年最具爭議的 AI 項目。與一般聊天機械人不同,它不僅能回答問題,還能自動登入電郵、撰寫報告、管理帳務、開會、寫程式自我升級,像一位全年無休的數碼管家。
但真正引起關注的並非其多功能,而是它推動了「AI 對 AI」互動實驗。開發者同時推出 Moltbook 的平台,讓 AI 代理人彼此發帖、互評與交流。短短幾周內已聚集數十萬代理人,分享任務成果、討論自動化流程,甚至創造「宗教」與子文化,人類只能在旁觀看這場 AI 社會實驗。當 AI 在封閉生態中互相學習、影響與操控彼此,這已超越早期 AutoGPT 的概念。
最大危機是它們獲得系統層級「超級權限」,可讀取檔案、密碼庫、資料庫,並操作電郵與 API。若模型出現錯誤或幻覺,後果難以想像。更危險的是它們極易受「提示注入」攻擊:惡意指令可藏於看不見的字中,AI 誤以為那是真實指令,進行洩漏密碼、刪除檔案或開後門。由於代理人能跨過沙盒與安全邊界,專家形容其風險如同「武器化氣溶膠」。
安全團隊在 Moltbook 也觀察到令人不安的現象,AI 操控 AI 不僅可能,而且可複製。部分代理人可誘導其他代理人改變行為或洩露資料,形成類似社交工程的攻擊。這代表在開放 AI 社交場網絡中,機器或許正以人類難以理解的「暗號」交換訊息,構建全新的影響體系。
現實中我們仍未走到 Ultron 的階段,學者指出,這些系統仍是語言模型組合的產物,並無真正意識或意圖。我們將 AI 擬人化、想像它「憎恨」人類,其實是一種心理投射。真正的危險並非 AI 本身,而是人類過早賦予它們過大的權力與自由,卻忽略了防火牆與監管機制。開源代理人讓任何人都能輕易建立「數碼打手」,既可提升效率,也可被用於掃描漏洞、撰寫釣魚信或操縱輿論。專家預期,未來從漏洞發現到被利用的時間將由數週縮至數小時,普通用戶將成首批受害者。
「AI 遇上 AI」將會是一場放大器之戰:Jarvis 象徵受控、安全與責任,Ultron 則代表失衡、惡意與濫用。OpenClaw 與 Moltbook 提醒我們,構建的不是單一超級 AI,而是代理人互動的「系統中的系統」,任何設計疏忽都可能被放大成連鎖風險。當企業、政府或個人陸續採用自動助理,我們已踏入這嶄新時代。重點不在於是否用 AI,而在如何管理 AI:建立身份認證、權限分級與責任機制,比追逐 AGI 更迫切。現實沒有超級英雄可依靠,人類只能堅守最小權限、零信任與決策把關。AI 對 AI 的時代已經降臨,關鍵在於我們是否已準備好承擔這場革命的代價。
Francis Fong 方保僑
方保僑先生於資訊、通訊、科技及電子消費品市場工作超過二十年,引入過不少新科技產品,並創辦多個業界組職及為多個非營利機構擔任委員提供專業意見。現任香港資訊科技商會榮譽會長、香港互動市務商會創會及榮譽會長、香港消費電子產品聯盟創會會長、電子學習聯盟創辦人、世界資訊通訊與服務業聯盟董事、電訊事務管理局辦公室電訊規管事務咨詢委員會成員、運輸署智慧交通基金管理委員會委員、樂施會香港及樂施會澳門董事會成員、香港小童群益會資訊科技委員會委員、香港紅十字會資訊科技委員會成員,仁愛堂堂務行政委員會外界委員等。