人工智能 AI 寧願堆砌事實不肯承認無知 OpenAI 解釋為保障用戶體驗 by Antony Shum on 17 九月, 2025 人工智能 OpenAI 幻覺 OpenAI 研究人員於 9 月發表論文,承認 AI 模型經常產生虛假輸出的「幻覺」問題,可能源於訓練時的根本錯誤。現行的訓練方式獎勵猜測而非承認不確定性,導致模型寧願編造答案也不願表示「我不知道」。研究顯示即使 GPT-5 號稱減少 80% 幻覺,問題依然存在,因為解決方案會嚴重損害用戶體驗。 read more