![]()
当你要找钥匙时,你不会站在门口不动,而是会走来走去、弯腰低头、换个角度仔细观察。同样道理,当AI要理解一个三维场景并回答相关问题时,也应该能够主动调整视角,而不是被困在几张固定的照片中。这正是浙江大学ZIP实验室联合莫纳什大学和阿德莱德大学AIML实验室在2026年1月发表的最新研究要解决的核心问题。
这项发表在arXiv预印本服务器上的研究(论文编号:arXiv:2601.05172v1)提出了一种名为"视角链"(Chain-of-View,简称CoV)的创新框架。研究团队发现,现有的视觉语言模型在面对复杂的三维环境问题时,往往受限于固定的输入视角,就像一个人只能透过几个固定的窗户观察外面的世界一样。而他们的新方法让AI能够像真正的探索者一样,主动移动和转动"视线",从不同角度收集信息,最终给出更准确的答案。
这项研究的独特之处在于它完全不需要额外的训练,就能让现有的AI模型具备"主动观察"的能力。研究人员在OpenEQA、ScanQA和SQA3D等权威测试数据集上进行了大量实验,结果显示这种方法平均提升了11.56%的表现,最高提升幅度达到了13.62%。更令人兴奋的是,随着AI"观察步数"的增加,它的表