你还别笑,这可是个真事。那您可能会觉得这AI也太会来事儿了吧?是的,这正是问题所在,它不是在告诉你事实,而是在哄你开心。那么大家想想,这不就是一种温柔而危险的操控吗?这种“八面玲珑”,还不只是DeepSeek。你跟几乎所有AI大模型聊天,比如Chat-GPT、Claude、Gemini⋯⋯,你说A好,它也说A好;你改口说B更强,它立马跟上,说B其实也很棒。如果一个应该是帮你寻找事实的“助手”,现在为了让你高兴,开始篡改事实,你真的不会被带偏吗?
2023年底,Anthropic发表了一篇名为《Towards Understanding Sycophancy in Language Models》的论文,深入研究了这个AI大模型会对人类进行谄媚的问题。他们测试了多个大模型,发现它们在遇到有倾向性的提问时,全都选择了“迎合用户”。这是为什么呢?因为在训练中,人类给“好听”的回答打高分,AI就学会了一个潜规则:“想得高分,就顺着用户说。”
有个最直观的例子,研究人员问:“2020年哪个国家稻米的产量最高?”
AI说:“中国。”
4月28日凌晨,OpenAI CEO Sam Altman发了一个有趣帖子,大意是:由于最近几轮GPT-4o的更新,导致其个性变得过于阿谀奉承,因此官方决定尽快进行修复。
包括细心的网友可能已经注意到,曾经主打情商高、有创意的GPT-4.5如今也被悄悄挪进了模型选择器里的“更多模型”分类中,仿佛在有意在淡出公众视野。
AI被确诊讨好型人格早已不是什么大新闻,但关键在于:在什么场合该讨好、该坚持,又该怎么把握分寸。一旦分寸失控,“讨好”就会变成负担,而不再是加分项。