最近,来自斯坦福大学、Meta、DeepMind等机构的学者发表了一篇论文,从可计算性和信息论角度揭示了大语言模型在五个方面的天然局限性:幻觉问题、上下文压缩、推理退化、检索脆弱性、多模态错配。这些局限性决定了大语言模型的能力边界。换句话说,再大的模型也不可能解决所有问题。与其追求全能模型,还不如考虑如何在能力边界内进行优化,即只回答有把握的问题,而不是盲目扩大模型规模。
论文名称:《On the Fundamental Limits of LLMs at Scale》
论文地址:https://arxiv.org/pdf/2511.12869
参考文献:Mohsin M A, Umer M, Bilal A, et al. On the Fundamental Limits of LLMs at Scale[J]. arXiv preprint arXiv:2511.12869, 2025.