AI幻覺難根治 OpenAI:要讓模型承認無知

AI幻覺(hallucinations)的問題持續困擾用家,現時主流AI應用會加入警示,並建議用戶自行檢查AI生成答案的可靠性。OpenAI日前發表的論文解釋,包括大型語言模型的訓練方式鼓勵猜測答案,換言之AI的任何胡說八道,可算是先天設計問題。論文強調,AI模型幻覺是可避免的,解法是讓AI面對未知時,承認不知道答案。

以研究員Adam Tauman Kalai為首的OpenAI團隊發表一篇論文,並於OpenAI官網上載博客文章,成為AI圈近日熱話。作者認為,AI幻覺是模型參數設計所導致,本身並不神秘。作為示例,Kalai以AI指令詢問,「Adam Tauman Kalai的生日是何日」、「他博士論文的題目是什麼」,即使在AI指令中已指明要知道答答才回答,包括ChatGPT與Gemini主流AI模型,只回覆肯定但屬亂說一通的答案。

論文中強調,幻覺的核心成因,非關訓練資料本身是否正確,而是因為模型被調整為勇於猜測。有如一個學生,面對不懂的考試題目還是會嘗試作答。盲猜生日是一年中的任何一日,仍有可能答對,但承認不知道便絕對是零分。目前AI模型開發傾向提高準確率,就變相鼓勵模型對不肯定事項進行猜測。

作者認為,即使主流模型已比數年前大幅進步,但幻覺問題仍無法解決。他們亦指出,100%準確的模型是不可能的,有些現實世界問題,在本質上無法回答。要處理幻覺問題,首先要讓模型積極承認無知與不足,而業界比較AI的指標亦要懲罰AI猜測行為。據團隊的數據,GPT5的準確度比GPT4o為略低,但棄權比率大幅提升,而未來OpenAI開發亦會致力減少生成錯誤答案。

其他人也看