机械荟萃山庄

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 84|回复: 0

大语言模型在五个方面的天然局限性

[复制链接]

2万

主题

3万

帖子

19万

积分

超级版主

Rank: 8Rank: 8

积分
198872
发表于 3 天前 | 显示全部楼层 |阅读模式
最近,来自斯坦福大学、Meta、DeepMind等机构的学者发表了一篇论文,从可计算性和信息论角度揭示了大语言模型在五个方面的天然局限性:幻觉问题、上下文压缩、推理退化、检索脆弱性、多模态错配。这些局限性决定了大语言模型的能力边界。换句话说,再大的模型也不可能解决所有问题。与其追求全能模型,还不如考虑如何在能力边界内进行优化,即只回答有把握的问题,而不是盲目扩大模型规模。
论文名称:《On the Fundamental Limits of LLMs at Scale》
论文地址:https://arxiv.org/pdf/2511.12869
参考文献:Mohsin M A, Umer M, Bilal A, et al. On the Fundamental Limits of LLMs at Scale[J]. arXiv preprint arXiv:2511.12869, 2025.



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|机械荟萃山庄 ( 辽ICP备16011317号-1 )

GMT+8, 2025-11-29 07:53 , Processed in 0.092866 second(s), 19 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表