![]()
考虑这样一个场景:你让一个看起来很聪明的机器人帮你做饭,它能完美地制定出详细的烹饪计划——先切洋葱,再炒制,最后调味。但当它真正动手时,却试图在没有拿刀的情况下切洋葱,或者想要用空着的手去翻炒食材。这听起来很荒谬,但这正是当前AI智能体面临的核心问题:它们在逻辑推理上表现出色,却经常在物理世界中犯一些看似低级的错误。
这项由浙江大学和加州大学洛杉矶分校联合开展的研究发表于2026年1月,论文编号为arXiv:2601.13247v1。研究团队发现了一个有趣的现象:大型语言模型虽然拥有丰富的语义知识,但在理解物理世界的基本规律方面存在严重缺陷。简单来说,这些AI就像是一个博览群书的学者,能够侃侃而谈各种理论知识,却不知道如何在现实生活中正确地开门或倒水。
研究团队将这种现象称为"物理幻觉"。当AI智能体试图在虚拟环境或现实世界中执行任务时,它们经常生成看起来合理但实际无法执行的计划。就好比一个从未下过厨的人看了很多美食节目后,能够详细描述制作一道菜的步骤,但真正动手时却发现自己连基本的操作都无法正确完成。
为了解决这个问题,研究团队提出了一个名为"WorldMi