IT之家 9 月 29 日消息,当用户提交情感化或个性化提示词时,OpenAI 旗下的 ChatGPT 会自动切换到限制性更强的语言模型,但这一过程不会通知用户。
目前,OpenAI 正在 ChatGPT 中测试一款全新的“安全路由系统”,该系统可根据对话主题自动将交流内容导向不同模型。ChatGPT 负责人尼克・特利(Nick Turley)表示,只要对话涉及“敏感或情感类主题”,该系统就会启动干预。
在实际应用中,ChatGPT 会将用户提示词临时转交至更严格的模型进行处理,例如 GPT-5,或是专用模型“gpt-5-chat-safety”。特利指出,这种模型切换仅针对单条消息触发,且只有当用户专门就此向模型提问时,切换行为才会显露出痕迹。
IT之家注意到,OpenAI 早在 9 月的一篇博客文章中就首次披露了这类基于情感的路由机制,并将其描述为针对“严重心理困扰”场景的防护措施。而特利此次的最新表态则将该机制的适用范围扩大到所有涉及敏感或情感领域的对话。
莱克斯(Lex)对这套新路由系统开展的技术评估显示,即便是无害的