OpenAI 構想「以 AI 監督 AI」應對未來超級智能威脅

對於 AI 未來的發展,雖然有不少樂觀的意見,但就算在 AI 開發社群仍然有很多人預期未來會出現所謂的「超級智能」,反過來威脅人類。OpenAI 早前設立的 Superalignment 團隊最近就發表初步研究成果,構思新的方式確保 AI 不會構成威脅。

OpenAI 在 7 月成立的 Superalignment 安全研究團隊是為了針對未來可能會超越人類智能的 AI 開發相關控制方式,避免 AI 對人類造成威脅。最近在 NeurIPS 會議上,Superalignment 團隊就公開了他們至今的研究成果,展示了一個「以 AI 監督 AI」的構思,以一個較弱的 AI 模型來指導更加先進的 AI 模型。團隊以 GPT-2 和 GPT-4 進行測試,不過結果發現效果並不太理想,需要進一步進行完善。

同樣在這方面進行研究的 Thilo Hagendorff 提出另一個問題,表示「超級智能」有可能會在人類自己或透過 AI 模型監督的時候隱藏實力,令相關監管難以有效進行,不過他讚賞 OpenAI Superalignment 團隊將本身只是流於理論的問題以實際測試嘗試解決,是重要的一步。除此之外,另外也有評論認為 OpenAI 一直宣稱 AI 在未來的威脅只是想要令監管當局轉移重點,不對更加迫切的 AI 問題例如算法上的歧視和偏見作出深入調查和監管。

來源:MIT Technology Review