![]()
当你向ChatGPT询问某位哲学家的出生日期时,它总是信心满满地给出答案,哪怕这个答案完全错误。这种现象被研究者称为「幻觉」,就像AI患了妄想症,总是编造一些听起来很有道理但实际上完全错误的信息。来自加州圣迭戈RA软件公司的理查德·阿克曼和保加利亚索菲亚大学的西蒙·埃马努伊洛夫在2025年发表的这项研究,提出了一个革命性的解决方案——「许可证神谕」系统。
这项研究发表在2025年的学术期刊上,研究者通过设计一种全新的架构,让AI在回答问题前必须先检验自己的答案是否正确,就像给AI装上了一个严格的「事实核查员」。研究团队在实验中取得了惊人的成果:传统方法只能达到56.7%的准确判断率,而他们的系统达到了完美的100%准确率,完全消除了虚假答案的产生。
研究者首先深入分析了AI产生幻觉的根本原因。在他们之前发表的研究《大型语言模型是如何被设计来产生幻觉的》中,研究团队指出,这个问题并非来自训练数据不足或模型调优不当,而是源于变换器架构本身的局限性。变换器模型就像一个只会模仿的学生,它能够生成语法正确、听起来合理的句子,但缺乏验证这些句子是否符合事实的能力。研究者将这种现象比作「平面语义空间」,在这个空间中