目前的生成式 AI 雖然相當強勁,不過卻一直存在被稱為「AI 幻覺」的問題,也就是系統會編造不存在的資料。OpenAI 就正在研究解決這個問題,消除公衆對 AI 會造成假消息傳播的疑慮。
OpenAI 表示,他們正在致力對抗「AI 幻覺」問題,嘗試用新的方式來訓練 AI 模型。這個而牛其實在生成式 AI 成為熱潮之前已經開始,發表的報告中承認,即使是最先進的 AI 模型,也一樣容易產生 AI 幻覺,在不確定內容的時候仍然會表現出「陳述事實」的傾向。一旦涉及推理的時候,這種邏輯錯誤就會令整個陳述存在問題。
OpenAI 的解決方式將會嘗試讓 AI 模型在得出答案時對每個單獨而正確的推理提供鼓勵,而非只鼓勵正確的追蹤推論,也就是更注重推理過程,這樣可以訓練出邏輯更佳的模型,遵循與真人更類似的「思維」程序。
不過 OpenAI 並未表明他們會否實際應用這個策略在新的 GPT 模型之中,其實除了 ChatGPT 之外,Google 的 Bard 也有類似問題,是否透過這個方式就可以完全解決「AI 幻覺」仍然有待觀察,不過業界其他專家對此都仍然抱有懷疑態度。
來源:CNBC