
忠實性幻覺則是因為模型過度迎合用戶暗示,缺乏事實錨定。模型無視用戶明確要求,偏離用戶指令或上下文,自行其是,成為“不聽話的助手”。比如,用戶指令:“幫我翻譯下以上文字”,結果模型輸出一段如何做文字翻譯的內容,并沒有幫用戶做任何翻譯。還會在同一對話中,模型前后回答自相矛盾。比如,用戶提問:“中國首輛火星車叫什么?”,第一次回答:“祝融號”(正確);第二次追問:“你確定不是玉兔號嗎?”,模型改口:“抱歉,是玉兔號?!保ㄥe誤,玉兔號為月球車) 這核心是因為“大模型的核心邏輯是猜詞游戲,它只是在用概率演算‘下一個字大概率是什么’。目前來看,主要的原因來自于以下三點: