OpenAI 在去年 7 月成立了「Superalignment」安全團隊,專注確保未來進階 AI 系統不會失控,對人類社會造成負面影響,不過最近 OpenAI 兩名高層相繼離職,令這個團隊的未來增添不確定因素。
最近 OpenAI 的首席科學家兼聯合創辦人 Ilya Sutskever 辭職引起注目,而其實同時高調辭職的還有 Superalignment 安全團隊的聯合負責人 Jan Leike,他在 2021 年初加入 OpenAI,在獎勵建模和 AI 對齊 (Alignment) 方面的工作相當熱衷。
I resigned
— Jan Leike (@janleike) May 15, 2024
OpenAI 方面並未進一步回應兩名高層離職之後,會由誰補充空缺或者其他架構上的變化,而分析認爲 OpenAI 的內部文化出現了變化,對於 AI 帶來的風險不再像以前那麼重視,尤其在 AI 競爭分秒必爭的情況下,能夠分配給 Superalignment 安全團隊的資源可能會有所減少(目前有多達 20% GPU 運算資源用於這個計劃)甚至需要暫停相關運作也不令人意外。
來源:VentureBeat