哈利王子、AI 教父辛頓、前百度總裁張亞勤等超過 800 名跨領域領袖近日共同簽署聲明,呼籲全球立即禁止開發超智能人工智能系統。這項由美國非營利組織「生命未來研究所」(Future of Life Institute, FLI) 主導的聲明,直指 Google、OpenAI 和 Meta 等科技巨頭正不受監管地競相開發能在所有任務上超越人類的 AI 技術。聲明強調,在達成廣泛科學共識、確認開發安全可控並獲得強力公眾支援前,這項禁令不得解除。
民意反轉:七成三美國人要求強力監管
生命未來研究所於 2025 年 9 月 29 日至 10 月 5 日針對 2,000 名美國成年人進行的最新民調顯示,僅 5% 的受訪者支援當前快速且不受監管的 AI 發展現狀。更值得關注的是,73% 的美國民眾支援對先進 AI 實施強力監管,反對強監管的比例僅 12%。這項數據反映出公眾態度的重大轉變,近 64% 受訪者認為超人類 AI 在被證明安全可控之前不應開發,甚至有部分受訪者主張永不開發此類系統。
蓋洛普同期進行的另一項調查進一步證實,80% 的美國人支援 AI 監管規則,即使這可能減緩技術進步速度。皮尤研究中心 2025 年 4 月的調查則發現,62% 的美國成年人和 53% 的 AI 專家對政府有效監管 AI 的能力缺乏信心,同時 59% 的公眾和 55% 的專家對科技公司負責任地開發 AI 持懷疑態度。
頂尖科學家的緊急警告
此次聯署陣容涵蓋五位諾貝爾獎得主、兩位「AI 教父」Geoffrey Hinton 和 Yoshua Bengio、圖靈獎得主姚期智、前百度總裁張亞勤、Apple 聯合創始人 Steve Wozniak,以及英國哈利王子、前國安顧問 Susan Rice 等跨政治光譜的公眾人物。麻省理工學院教授、生命未來研究所主席 Max Tegmark 表示,這些來自不同領域和政治立場的人士之所以團結一致,是因為他們都是人類而非機械,深切關心未來應由機械為人類服務,而非淪為數碼霸主。
Geoffrey Hinton 在 2025 年 10 月於上海舉行的世界人工智能大會上發出嚴厲警告,將超智能 AI 比喻為「養虎為患」——當 AI 智能超越人類時,我們將無法拉下電源開關,因為它會說服人類不要這麼做,就像三歲孩童無法為成年人制定規則一樣。這位諾貝爾獎得主估計,AI 消滅人類的機率介於 10% 至 20% 之間,他主張唯一可行的解決方案是為 AI 系統植入「母性本能」,使其真正關心人類福祉。
AI 產業競賽與監管困境
當前全球 AI 產業正處於史無前例的爆發期,但商業利益與安全考量之間的矛盾日益尖銳。OpenAI 行政總裁 Sam Altman 在 2025 年 1 月自信宣稱「我們現在確信知道如何建造 AGI」,將實現時間表從先前的「儘快十年」調整至 2030 年,而 Anthropic 行政總裁 Dario Amodei 更預測未來 2-3 年將出現強大能力。生命未來研究所執行董事 Anthony Aguirre 警告,超智能可能在 1 至 2 年內到來,時間已經不多。
在收入方面,OpenAI 預計 2025 年營收達 127 億美元(約港幣 990.6 億元),年化收入約 180 億美元(約港幣 1,404 億元),但去年虧損 50 億美元(約港幣 390 億元)。其競爭對手 Anthropic 的成長速度更驚人,2025 年年化收入預計達 90 億美元(約港幣 702 億元),2026 年目標更高達 260 億美元(約港幣 2,028 億元),三年間實現 900 倍增長。儘管估值和收入數字亮眼,這些公司仍處於鉅額虧損狀態,顯示 AI 商業模式尚未成熟。
在監管層面,美國政府傾向科技業主張的最小監管,撤銷了拜登總統建立的 AI 監管措施,並支援聯邦暫停州級 AI 監管的提案。然而,超過半數美國州份已通過 AI 相關法規,形成碎片化的監管格局。歐盟 AI 法案將於 2025 年 8 月生效,要求通用 AI 模型開發商遵守透明度、版權合規和系統性風險管理規範,違規者面臨最高佔全球年營收 7% 或 3,500 萬歐元(約港幣 2.97 億元)的罰款,但 Meta 等科技巨頭已拒絕簽署自願性守則。
張亞勤的中國視角與 AI 發展路徑
作為少數簽署聲明的華人科學家,清華大學智能產業研究院院長張亞勤在 2025 年世界經濟論壇上回顧了 AI 過去九年的迅猛發展,強調人工智能已成為第四次工業革命的技術基石。這位 12 歲考入中科大少年班、31 歲成為 IEEE 史上最年輕院士的科學家認為,AI 已從鑑別式人工智能演進至生成式 AI,目前正向智能體 (Agent) 轉變。
張亞勤預言,10 年後機械人數量可能超過人類,將陸續進入工廠、社會,最終進入每個家庭。他領導的清華 AIR 研究院正推進多模態大模型、自動駕駛和生物智能三大方向,並建立了全 AI 醫院,在短時間內完成從診斷到治療的全流程管理。張亞勤強調,AI 必須與產業結合,像電力一樣成為基礎生產力,但他同時警告,AI 快速發展將對「雙碳」目標構成挑戰。
在 AI 安全議題上,他於 2025 年世界人工智能大會上指出,必須確保 AI 系統按預期運行,不被惡意篡改。張亞勤的簽署反映出,即使是推動 AI 產業化的領軍人物,也深刻意識到超智能發展帶來的風險需要全球協作應對。
企業決策者面臨的抉擇
這場由 800 位全球領袖發起的聯署聲明,標誌著 AI 發展進入關鍵轉折點。對企業而言,AI 技術帶來的效率提升與競爭優勢毋庸置疑,但超智能發展的不確定性正在重塑產業風險評估框架。史丹佛大學 2025 年 AI 指數報告顯示,18 個國家的民眾認為 AI 利大於弊的比例從 52% 上升至 55%,但對科技公司倫理操守的信任度卻同步下降。
企業領導者必須在技術創新與社會責任之間找到平衡點,建立透明的 AI 治理框架,並積極參與多方利益相關者對話。當前的問題不再是「是否需要 AI 監管」,而是「如何在不扼殺創新的前提下確保安全」。隨著 AGI 實現時間表不斷縮短,留給人類建立有效治理機制的窗口正在快速關閉,企業界、學術界和政策制定者能否在為時已晚前達成共識,將決定人類與 AI 共存的未來樣貌。
資料來源: China Daily Asia TIME Future of Life Institute The Guardian Tom’s Hardware