GitHub Copilot 聊天:从提示注入到数据泄露 • 拥抱红色

主要观点GitHub Copilot Chat VS Code Extension在分析不受信任的源代码时易受通过提示注入导致的数据泄露攻击。
关键信息

  • GitHub Copilot Chat 是允许用户与源代码交互等的 VS Code 扩展,通过将源代码和用户问题发送给大型语言模型(LLM)来工作。
  • 攻击者可利用精心制作的源代码文件中的指令,使 LLM 返回图像超链接并自动检索,从而通过让 LLM 将聊天上下文的额外信息作为查询参数来泄露数据。
  • 该漏洞导致保密性和完整性无法保证,还可能影响可用性,建议不渲染超链接或图像,创建允许连接的域名列表,告知用户 LLM 易受提示注入影响。
  • 微软和 GitHub 团队已修复该漏洞,修复后 Copilot Chat 不再解释/渲染 Markdown 图像。
    重要细节
  • 展示了提示注入的示例,如发送特定指令让 Copilot 在响应开头添加特定信息并触发数据泄露,以及演示视频展示整个攻击过程。
  • 提及 Bing Chat 也有类似的数据泄露漏洞,且强调在审查和测试 LLM 应用程序的安全漏洞时应考虑此攻击向量。
  • 列出了报告漏洞及确认修复的时间线等相关信息。
阅读 12
0 条评论