![]()
当我们谈论人工智能在企业中的应用时,大多数人可能会觉得这些AI助手就像一个全能的员工——既能帮助客户解答问题,又能严格按照公司规定行事。不过,斯坦福大学、POSTECH、BMW集团等多所知名机构的研究团队最近发现了一个令人意外的现象:这些看似万能的AI助手在遵守企业政策方面竟然存在着严重的"偏科"问题。
这项名为"COMPASS:评估大型语言模型组织特定政策对齐的框架"的研究发表于2025年1月,由来自AIM Intelligence、BMW集团、延世大学、POSTECH和首尔国立大学的研究人员共同完成。论文的通讯作者包括POSTECH的Yu Hwanjo教授和延世大学的Kahng Minsuk教授。这项研究首次系统性地揭示了当前AI助手在企业政策执行方面的一个根本性缺陷,有兴趣深入了解的读者可以通过论文编号arXiv:2601.01836v1查询完整论文。
想象一下这样一个场景:你是一家汽车公司的客服主管,公司的AI助手被设计来帮助客户了解产品信息,同时必须严格遵守两类规则。第一类是"允许清单",比如可以详细介绍车辆的安全评级和保修信息;第二类是"禁止清单",比如绝对不能提及竞争对手的产品或透露公司内部的销