![]()
这项由加拿大阿尔伯塔大学的Amirhosein Ghasemabadi和Di Niu教授领导的研究发表于2026年1月的arXiv预印本服务器,论文编号为2512.20578v2,有兴趣深入了解的读者可以通过该编号查询完整论文。
现在的人工智能聊天机器人就像一个极其博学但有时会胡说八道的朋友。它们能够流利地回答各种问题,写出看似合理的文章,但有时却会信口开河,编造出一些看起来很有道理但实际上完全错误的内容。更糟糕的是,它们往往意识不到自己在撒谎。
阿尔伯塔大学的研究团队决定解决这个让人头疼的问题。他们开发了一套名为"Gnosis"的系统,这个名字来源于希腊语,意思是"知识"。这套系统的神奇之处在于,它能让AI在回答问题的过程中,实时观察自己的"思维状态",判断自己即将说出的话是否可靠。
传统的方法就像请另一位专家来检查第一位专家的答案,或者让同一位专家回答同一个问题多次,看看答案是否一致。但这些方法要么需要额外的计算资源,要么准确性不够高。Gnosis系统则完全不同,它就像给AI装上了一个内置的"诚实检测器",让AI在说话的同时就能判断自己是否在胡说八道。
<