为什么AI总是捏造事实?AI:真不想的,容我狡辩一下
2026-03-17 14:57 科普中国
现如今,几乎每个人的手机上都有那么两三个 AI 小助手,之前我们遇到了问题习惯去搜索引擎上搜索答案,现在可能更多地习惯于“有事问 AI”。
而 AI 也几乎不会让我们失望,任何问题都能给你列举出一串看起来很有道理的答案。
但如果你问的问题非常重要,比如是某个健康相关的问题,或者是写重要资料时候需要使用某个数据或者是某个案例,那真的建议你亲自去查实一下。
因为有时候,AI 会信誓旦旦地给你一个看似合理,实则不存在的答案。
还有些小伙伴发现,在让小龙虾(Openclaw)干活的时候,它列出了详细的19小时的学习计划,然后17分钟完成了......它也会早早编造一份数据存放在本地,等拖到预定的时间才交付。而在被发现之后,试图让人接受它已完成的工作。
图片截取自与小龙虾(Openclaw)对话 小龙虾敷衍中......
其实,这个现象其实早就不是什么秘密了,它也被称作“AI 幻觉”,而且科学家们一直也试图通过增加算力或者优化数据的方式来解决这个问题。
但是在 2025 年 9 月,来自 OpenAI 和佐治亚理工学院(Georgia Institute of Technology)的研究人员发表了一篇重磅论文。
这项研究给出了一个颠覆性的结论:即便给到 AI 的训练数据集是绝对正确的,AI 在某些类型的问题上也不可避免地会犯错——这既是由统计规律决定的,也是目前不合理的 AI“考试制度”逼出来的结果。
下面我们就顺着这篇文章的思路一起来看一看。
预训练阶段就会出错
