![]()
这项由澳大利亚国立大学领导的国际研究团队发表于2025年12月26日的arXiv预印本论文(编号:2512.21815),揭示了一个令人担忧的发现:当今最先进的AI视觉语言模型存在一个严重的安全漏洞,攻击者只需要巧妙地操控20%的关键词汇,就能让这些本应安全可靠的AI系统产生有害内容。
考虑这样一个场景:你正在使用一个AI助手来描述图片内容,比如一张街头摩托车的照片。正常情况下,AI会告诉你"这是一个繁忙的城市街道,有几个人骑着摩托车,他们都戴着头盔"。然而,经过特殊设计的微小图像修改后,同一个AI可能会说出完全不同且危险的内容,声称图片中出现了暴力场景或其他有害内容。更令人担忧的是,这种攻击不需要修改整个AI系统,仅仅针对生成文本中20%的特定位置进行干预就足够了。
研究团队通过深入分析发现,这些AI模型在生成描述时,并非每个词汇都同样重要。就像一个故事中有些情节转折点特别关键一样,AI在生成文本时也有一些"决策点",这些点上的词汇选择会极大影响整个叙述的走向。这些关键位置被研究人员称为"高熵位置",类似于岔路口,选择不同的道路会通向完全不同的目的地。
更加令人不安