寂静回声 发表于 5 天前

AI输出越像真理 人越要保留验证权

很多人以为,模型越大,算力越多,AI 就会自然长出一种接近科学家的能力,今天帮你写方案,明天帮你写论文,后天就能自己发现真理。
现实没这么浪漫,AI 最大的缺陷,不是它不会生成新东西,而是它不能替自己的猜测负责。

2017 年,Transformer 出现。关键词是 self-attention。
2020 年,GPT-3 发布。1750 亿参数,把“大模型”这三个字推到普通人的视野里。
2022 年 11 月 30 日,ChatGPT 公开发布。AI 从实验室论文,变成写字楼、课堂、朋友圈里的日常工具。
2025 年,Google Research 推出 AI co-scientist。名字已经很激进,但它仍然叫 co-scientist,不叫 scientist。

模型越来越大,界面越来越顺。
产品越来越像人,但最关键的东西没有交出去:真理验证权。

AI co-scientist 的工作方式,是让多个 AI 代理生成假设、反思、排序、迭代,再把结果交给科学家。Google 自己的说法,是它可以帮助科学家生成新假设和研究方案,并在药物再利用、治疗靶点等方向显示潜力。
但注意那个动作:交给科学家,这几个字才是硬物证。
而 AI 的语气,永远是 100%。”

AI 当然有用,它能读论文,能列方案,能生成假设,能把一个人几周的搜索工作压缩成几个小时,问题是,它生产的是候选答案,不是经得起实践的知识。

真理不是一句顺滑的话。真理要被实验验证,被市场检验,
Transformer 的注意力机制,本质上是在符号之间计算关系。哪个词该看哪个词,哪段信息该连到哪段信息,下一步输出什么最合理。
它很强,但它不是一个人在凌晨三点盯着异常数据,突然意识到旧理论裂了。
它不是一个研究员把试剂滴进培养皿,看见结果和预期完全相反。
它也不是一个创业者把产品推到市场上,被用户用沉默投票。
它没有实验台,它更像一台巨大的关联机器。
你给它文本,它找关系;
你给它论文,它找缝隙;
你给它任务,它生成候选答案。

翻译过来就是:它能把人类留下的痕迹重新排列成更像答案的东西,但它自己不流血,也不赔钱。
再往后看一步,真正危险的不是 AI 取代科学家。
真正危险的是,3 年以后,一批年轻研究员会被训练成 AI 假设的验证官。
一个研究员最重要的能力,可能不再是提出怪问题,而是快速判断 AI 生成的 100 个漂亮问题里,哪 97 个根本不值得花钱验证。

如果模型更擅长生成“像论文”的问题,那不像论文但可能重要的问题,会更早被丢掉。
如果评审、基金、机构也越来越依赖 AI 辅助判断,那么整个系统会一起偏向那些更容易被 AI 说清楚的东西。
你用 AI 观察世界,世界会开始迎合 AI 的观察方式。
所以真正值得警惕的,不是 AI 会胡说,胡说很容易被识破。
AI 最危险的地方,是它能把没有被验证的东西,说得像已经被验证过。
未来最贵的能力,可能不是会不会使用 AI,而是当 AI 递给你一个极其漂亮的答案时,你还敢不敢问一句:你没骗人吧。
https://s3.bmp.ovh/2026/05/03/tN35Z2T5.jpg
https://s3.bmp.ovh/2026/05/03/3O6xWuxU.jpg
页: [1]
查看完整版本: AI输出越像真理 人越要保留验证权