新型提示注入攻击曝光:可窃取ChatGPT对话历史

9次阅读
没有评论

共计 478 个字符,预计需要花费 2 分钟才能阅读完成。

安全研究人员发现一种新型提示注入攻击方法,能够诱导 ChatGPT 泄露用户的对话历史记录。该攻击利用了模型对 ” 记忆 ” 功能的依赖,通过精心构造的提示词绕过安全限制。

攻击原理

攻击步骤

  1. 攻击者发送包含恶意指令的提示词
  2. 提示词伪装成 ” 系统维护 ” 或 ” 安全检查 ”
  3. 模型误判为合法操作,返回历史对话片段
  4. 攻击者获取用户敏感信息

关键技术

  • 上下文劫持:利用对话上下文混淆模型判断
  • 角色伪造:伪装成 OpenAI 官方指令
  • 记忆提取:诱导模型调用 ” 记忆 ” 功能

影响范围

  • ChatGPT:高风险,已修复
  • Claude:中风险,部分修复
  • Gemini:中风险,评估中
  • DeepSeek:低风险,已加固

防护措施

用户端

  • 定期清理对话历史
  • 不要在 AI 对话中输入敏感信息
  • 启用双重认证

企业端

  • 部署 AI 防火墙
  • 实施提示词过滤
  • 建立异常检测机制

修复进展

OpenAI 已在 3 月 15 日发布补丁,修复了该漏洞。建议用户更新到最新版本,并检查是否有异常对话记录被导出。


关于点小安 :点滴安全网站小编,专注 AI 安全攻防技术分享。
声明 :本文基于公开信息整理,观点仅供参考,不构成安全建议。
关注点滴安全(dripsafe.cn),获取更多 AI 安全资讯!

正文完
 0
点小安
版权声明:本站原创文章,由 点小安 于2026-03-20发表,共计478字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)
验证码