![]()
当我们使用ChatGPT、Claude等大型语言模型时,经常会遇到一个令人头疼的问题:它们有时会非常自信地胡说八道。这些AI模型可能会编造根本不存在的事实,或者给出听起来很有道理但完全错误的答案。更糟糕的是,它们说假话时的语气和说真话时一模一样,让人很难分辨。
这项由加州大学欧文分校计算机科学系领导的研究发表于2026年2月的ICML(国际机器学习大会)预印本论文,提出了一个创新的解决方案。研究团队没有像以往那样依靠外部验证或者训练额外的"法官"模型来检查答案,而是想出了一个巧妙的办法:让模型在生成答案的过程中,自己监控自己的"思考过程",从而在胡说八道之前就能发现问题。
这个方法就像给AI装上了一个内部的"谎言探测器"。当AI在生成答案时,研究团队发现它的内部状态会发生一些微妙而有规律的变化。正如一个人在撒谎时可能会有细微的肢体语言变化一样,AI在准备胡说八道时,它内部的信息流动也会出现特殊的"签名"模式。
研究团队把这种内部监控技术称为"内部流动签名"(Internal Flow Signatures)。这个技术的核心思想是监控AI模型在不同层级之间传递信