AI co-scientist 的工作方式,是让多个 AI 代理生成假设、反思、排序、迭代,再把结果交给科学家。Google 自己的说法,是它可以帮助科学家生成新假设和研究方案,并在药物再利用、治疗靶点等方向显示潜力。
但注意那个动作:交给科学家,这几个字才是硬物证。
而 AI 的语气,永远是 100%。”
AI 当然有用,它能读论文,能列方案,能生成假设,能把一个人几周的搜索工作压缩成几个小时,问题是,它生产的是候选答案,不是经得起实践的知识。
翻译过来就是:它能把人类留下的痕迹重新排列成更像答案的东西,但它自己不流血,也不赔钱。
再往后看一步,真正危险的不是 AI 取代科学家。
真正危险的是,3 年以后,一批年轻研究员会被训练成 AI 假设的验证官。
一个研究员最重要的能力,可能不再是提出怪问题,而是快速判断 AI 生成的 100 个漂亮问题里,哪 97 个根本不值得花钱验证。
如果模型更擅长生成“像论文”的问题,那不像论文但可能重要的问题,会更早被丢掉。
如果评审、基金、机构也越来越依赖 AI 辅助判断,那么整个系统会一起偏向那些更容易被 AI 说清楚的东西。
你用 AI 观察世界,世界会开始迎合 AI 的观察方式。
所以真正值得警惕的,不是 AI 会胡说,胡说很容易被识破。
AI 最危险的地方,是它能把没有被验证的东西,说得像已经被验证过。
未来最贵的能力,可能不是会不会使用 AI,而是当 AI 递给你一个极其漂亮的答案时,你还敢不敢问一句:你没骗人吧。