![]()
这项由谷歌、范德比尔特大学、康奈尔大学等多家知名机构联合开展的研究发表于2025年,论文编号为arXiv:2510.00263v1。研究团队由来自谷歌的李卓航、李晓伟等研究者领导,联合了包括谷歌DeepMind、阿尔伯塔大学、弗吉尼亚理工大学以及Scale AI等机构的专家。有兴趣深入了解的读者可以通过论文编号arXiv:2510.00263v1查询完整论文。
当我们在网上购物时,经常会看到商品评价出现分歧——同一件商品,有人给五星好评,有人只给三星。这种现象在现实生活中司空见惯,因为每个人的标准、喜好和价值观都不同。然而,当前的AI评判系统却像一个固执己见的审判官,总是试图给出唯一的"标准答案",完全忽视了人类判断中本就存在的多样性和不确定性。
这个问题在AI领域变得越来越严重。现在,许多AI系统都在使用其他AI作为"自动评判员"来评估和改进AI的表现,这种做法被称为"AI当法官"。但这些AI评判员都是按照传统方式训练的,它们只学会了给出单一的判断结果,就像一个只会说"对"或"错"的机器。这种简单粗暴的评判方式丢失了人类判断中的丰富信息,也抹杀了少数派的观点。
研究