OpenAI 在去年 7 月成立了「Superalignment」安全團隊,專注確保未來進階 AI 系統不會失控,對人類社會造成負面影響,不過最近 OpenAI 兩名高層相繼離職,令這個團隊的未來增添不確定因素。
最近 OpenAI 的首席科學家兼聯合創辦人 Ilya Sutskever 辭職引起注目,而其實同時高調辭職的還有 Superalignment 安全團隊的聯合負責人 Jan Leike,他在 2021 年初加入 OpenAI,在獎勵建模和 AI 對齊 (Alignment) 方面的工作相當熱衷。
OpenAI 方面並未進一步回應兩名高層離職之後,會由誰補充空缺或者其他架構上的變化,而分析認爲 OpenAI 的內部文化出現了變化,對於 AI 帶來的風險不再像以前那麼重視,尤其在 AI 競爭分秒必爭的情況下,能夠分配給 Superalignment 安全團隊的資源可能會有所減少(目前有多達 20% GPU 運算資源用於這個計劃)甚至需要暫停相關運作也不令人意外。
來源:VentureBeat