共计 478 个字符,预计需要花费 2 分钟才能阅读完成。
安全研究人员发现一种新型提示注入攻击方法,能够诱导 ChatGPT 泄露用户的对话历史记录。该攻击利用了模型对 ” 记忆 ” 功能的依赖,通过精心构造的提示词绕过安全限制。
攻击原理
攻击步骤
- 攻击者发送包含恶意指令的提示词
- 提示词伪装成 ” 系统维护 ” 或 ” 安全检查 ”
- 模型误判为合法操作,返回历史对话片段
- 攻击者获取用户敏感信息
关键技术
- 上下文劫持:利用对话上下文混淆模型判断
- 角色伪造:伪装成 OpenAI 官方指令
- 记忆提取:诱导模型调用 ” 记忆 ” 功能
影响范围
- ChatGPT:高风险,已修复
- Claude:中风险,部分修复
- Gemini:中风险,评估中
- DeepSeek:低风险,已加固
防护措施
用户端
- 定期清理对话历史
- 不要在 AI 对话中输入敏感信息
- 启用双重认证
企业端
- 部署 AI 防火墙
- 实施提示词过滤
- 建立异常检测机制
修复进展
OpenAI 已在 3 月 15 日发布补丁,修复了该漏洞。建议用户更新到最新版本,并检查是否有异常对话记录被导出。
关于点小安 :点滴安全网站小编,专注 AI 安全攻防技术分享。
声明 :本文基于公开信息整理,观点仅供参考,不构成安全建议。
关注点滴安全(dripsafe.cn),获取更多 AI 安全资讯!
正文完