![]()
当我们与AI助手聊天时,就像在与一个看不见的朋友对话。这个朋友能帮我们查天气、订餐厅、管理日程,甚至处理银行业务。但是,如果有坏人在我们的对话中悄悄插入一些伪装的指令,让AI助手误以为这些指令来自更高级别的"上司",会发生什么呢?
这正是中航大学人工智能系的张焕昌、俊永贤和李焕熙团队在2025年9月发表的一项重要研究所关注的问题。这项名为"ChatInject:滥用聊天模板进行LLM代理中的提示注入攻击"的研究发表在arXiv预印本平台(论文编号:arXiv:2509.22830v1),揭示了当前AI助手系统中一个令人担忧的安全漏洞。
研究团队发现了一种全新的攻击方式,就像给AI助手出示"假身份证"一样。在现实生活中,如果有人拿着伪造的警官证件向你发号施令,你可能会不假思索地服从。同样,这种名为ChatInject的攻击方法能够伪造AI系统内部的"身份标识",让恶意指令看起来像是来自系统内部的重要命令,从而成功欺骗AI助手执行危险操作。
更令人惊讶的是,研究团队还开发了一种"多轮对话诱导"技术。这就像一个善于心理操控的骗子,不是直接要求你做某件事,而是先与你建立信任关