生成式 AI 的「AI 幻覺」問題一直是 AI 難以獲得完全信任的主要原因,而 Microsoft 有見及此,最近就推出名為 Correction 的工具,可以自動修正 AI 生成回應中的事實錯誤。
Microsoft 表示,這個工具首先會標記可能有誤的內容,然後透過與已認證「事實」(如上傳的文字記錄)進行比對來進行核實。Correction 現已作為 Microsoft Azure AI Content Safety API 的一部分提供預覽,可與任何文字生成 AI 模型配合使用,包括 Meta 的 Llama 和 OpenAI 的 GPT-4。
Correction 的運作原理是利用一對交叉引用的元模型,包括一個用來尋找可能不正確、虛構或不相關的 AI 生成內容(幻覺)的分類器模型。以及一個可以根據指定文件來糾正幻覺的語言模型。Microsoft 發言人表示,他們希望這項新功能能夠協助生成式 AI 的開發者和用戶,特別是在醫療等對回應準確性要求極高的範疇。
不過也有專家對此表示懷疑。華盛頓大學的 Os Keyes 認為,試圖消除生成式 AI 中的幻覺就像試圖從水中消除氫元素一樣,因為這是技術運作的基本組成部分。Queen Mary University 的 Mike Cook 則指出,即使 Correction 按預期運作,它也可能加劇 AI 周圍的信任和可解釋性問題,可能會讓用戶產生錯誤的安全感。
來源:TechCrunch