与人多轮对话时 大模型就是个傻逼
多轮聊天是整个AI应用最大的难点,也是很多人做不好AI产品的关键,一旦是涉及多聊天的产品,其实现复杂度都会大幅增加!所以,今天第一个问题是,AI多轮对话到底难在哪里?
关于这个问题,也许大家没有注意到,其实当前所有的互联网产品设计多是针对一问一答这种模式的。包括DeepSeek、ChatGPT这种工具,他其实也更多是一问一答的模式。
一般用户在产品使用时候,当面临新问题的时候,会刻意的新开窗口,防止信息互相污染。
这种习惯的潜意识是:暂时还不太相信模型具有多轮对话的能力。
事实上,模型的反馈也确实在说明这一点:
在7轮医疗问诊对话中,GPT-4对患者主诉的遗忘率达37%;
当对话超过12轮时,关键信息丢失率飙升至68%;
随着模型能力增强,该情况会好一些,但模型依旧会有这种上下文遗忘的问题。
另一方面,我们在实际对话中会有很多“代词”,比如这个、那个、他...
而在模型对话过程中,这种代词很容易被错误关联,这会进一步要求我们跟AI对话的时候进行手动补足,而这种严谨的补足显然不符合人们聊天习惯。
但最重要的还是要回归第一个点:意图偏移、话题切换,人们聊天过程中各种天马行空,他们会不断切换话题,而模型当前显然是跟不上的...
最后,AI也需要面临众口难调的问题,因为有些用户喜欢简洁精准的回答,有些用户喜欢发散引导型回答,这种处理起来也有些小麻烦...
综上,这里的结论是:不要期待模型依靠自己的能力就将多轮对话做得很顺滑了,不大可能的。
https://s3.bmp.ovh/imgs/2025/05/11/77f9784a34b612ce.jpg
https://s3.bmp.ovh/imgs/2025/05/11/7015a35e8f247952.jpg
页:
[1]