头图

图片

本次分享论文为:Visual Adversarial Examples: Jailbreak Aligned Large Language Models

基本信息

原文作者:Xiangyu Qi, Peter Henderson, Kaixuan Huang, Ashwinee Panda, Mengdi Wang, Prateek Mittal

作者单位:普林斯顿大学、斯坦福大学关键词:视觉对抗样本、大语言模型、安全性、多模态

原文链接https://arxiv.org/pdf/2306.13213.pdf

开源代码:暂无

论文要点

论文简介:本文研究了将视觉集成到大语言模型(LLMs)中的安全性和安全隐患。通过展示视觉对抗性样本如何绕过对齐LLMs的安全防护,揭示了视觉输入的连续性和高维性使其成为对抗性攻击的薄弱环节,扩大了视觉集成LLMs的攻击面。

研究背景:随着视觉语言模型(如Flamingo和GPT-4)的崛起,整合视觉信息成为LLMs的新趋势。然而,这种整合增加了模型的攻击面,尤其是对抗性攻击,这对于确保模型的安全性和可靠性构成了挑战。

研究贡献:揭示了视觉对抗性样本对齐大语言模型的潜在风险,提出了一个案例研究,证明了视觉对抗性样本可以普遍破解对齐的LLMs,强制它们执行它们通常会拒绝的有害指令,并产生有害内容。

引言

近年来,整合视觉到大语言模型(LLMs)中,形成视觉语言模型(VLMs)的研究与需求激增,如Google的Flamingo和OpenAI的GPT-4。本文旨在研究此趋势的安全性和安全隐患,强调视觉输入的连续性和高维性使其成为对抗性攻击的薄弱环节,展示了视觉对抗性样本如何绕过对齐LLMs的安全防护。

背景知识

本文首先梳理了大语言模型(LLMs)和视觉语言模型(VLMs)的基本概念和进展,然后详细探讨了对抗样本攻击的原理,特别是在视觉领域的应用。通过分析,指出整合视觉信息到LLMs中不仅扩大了攻击面,也增加了安全保护的难度。

论文方法

理论背景:文章从视觉对抗样本的生成和应用角度出发,探讨了视觉输入如何被设计和优化来误导LLMs。

方法实现:详细描述了如何利用视觉对抗性样本破解对齐的LLMs,包括对抗性样本的生成、测试和评估过程。通过一个案例研究,展示了对抗性样本是如何在一系列有害指令下普遍破解LLMs的安全防护,导致它们生成有害内容。

实验

实验设置:使用MiniGPT-4等模型验证视觉对抗样本的有效性,通过与无害视觉输入的比较,展示了对抗样本在诱导模型生成有害内容方面的显著效果。

图片

实验结果:实验证实了视觉对抗样本能够普遍破解对齐的LLMs,迫使它们执行有害指令,并生成超出初始优化范围的有害内容。

论文结论

本研究通过视觉对抗性样本的案例研究,揭示了集成视觉能力到LLMs中带来的安全性和安全隐患。研究发现,即使是对齐的LLMs也容易受到视觉对抗性样本的普遍破解,这对未来模型的安全性和可靠性提出了严峻挑战。因此,呼吁未来的研究更多关注于开发更加健壮和安全的多模态LLMs。

                               原作者:论文解读智能体
                               润色:Fancy
                               校对:小椰风

图片


云起无垠
12 声望14 粉丝

国内首创的Fuzzing 全流程赋能开发安全-DevSecOps 解决方案供应商, 基于智能模糊测试引擎为协议、数据库、API、APP、Web3.0 等场景提供强大的软件安全自动化分析能力,从源头助力企业自动化检测与修复业务系统安...