![]()
这项研究由Google和约翰霍普金斯大学的研究团队共同完成,第一作者刘启豪在Google实习期间主导了这项工作,其他核心成员包括Google的毛承志、刘耀杰、朱文胜,以及约翰霍普金斯大学的Alan Yuille教授。这项突破性研究发表在2025年12月的计算机视觉顶级会议上,论文编号为arXiv:2512.16921v1,为多模态大语言模型的评估和改进开辟了全新路径。
在人工智能飞速发展的今天,各种AI模型层出不穷,每个都声称自己比前辈更强大。然而现实中,我们该如何真正了解这些AI的优缺点呢?传统的评估方法就像是让学生参加标准化考试,虽然能得到一个分数,但很难告诉我们学生具体哪里薄弱,更别说如何针对性地改进了。研究团队面临的正是这样一个挑战:如何为AI模型建立一个真正有效的"体检系统"。
现有的AI评估就像是医生只看体温和血压就给病人下诊断一样粗糙。虽然我们能知道某个AI在图像识别测试中得了85分,另一个得了90分,但这并不能告诉我们第一个AI具体在什么地方表现不佳,也不知道如何帮它改进。更令人困扰的是,有时候一个看起来更大更强的AI模型在某些特定情况下反而不如小模型表现好,这就像是让奥运冠军和业余选手比赛,