GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1.如何写好提示符,让GPT适用于静态分析
简介:基于LLM与静态分析理解,结合利用LLM进行代码总结、注释,总结了此篇内容。
链接:https://mp.weixin.qq.com/s/9aHMBzftMEmi31YUYMPjbg
2.Chat GPT发现安全漏洞,人工智能潜在隐患该如何防范?
简介:布朗大学的计算机科学研究人员发现了 Open AI 的 GPT-4 安全设置中的新漏洞。他们利用一些不太常见的语言,如祖鲁语和盖尔语,即可绕过 GPT-4 的限制。研究人员使用这些语言来写通常受限的提示词,发现得到回答的成功率为 79%,而仅使用英语的成功率不到 1%。这一测试结果表明,Chat GPT 在非常用语言限制功能上存在安全漏洞,这可能会给犯罪分子可乘之机。人工智能存在哪些潜在的安全隐患?我们应该如何防范?
链接:https://mp.weixin.qq.com/s/EmAL1UUgIqetig65f-wujw
3.为何GPT-4P容易受到多模态提示注入图像攻击?
简介:OpenAI新的GPT-4V版本支持图像上传后,带来了一条全新的攻击途径,使大型语言模型(LLM)容易受到多模态注入图像攻击。攻击者可以在图像中嵌入命令、恶意脚本和代码,随后模型会遵从行事。
链接:https://mp.weixin.qq.com/s/hg3fI21LoiuceLMF_iwO9Q
4.ChatGPT企业版上线,无限制使用,更快更高效更安全!
OpenAI的新动作让人眼前一亮,他们不仅刚刚发布了GPT-3.5微调API,而且还悄悄地推出了最强大的ChatGPT版本——ChatGPT企业版!
链接:https://mp.weixin.qq.com/s/Gz9BpwWZya5FIEhfrKXglQ
5.网络攻击者将AIGC和恶意软件集成,使威胁级别上升
根据研究数据,与前几个季度相比,北美有组织的身份欺诈增加了44%。这种激增被认为是由持续的经济复苏和通胀压力推动的,特别是在美国市场,这助长了专业身份证诈骗集团的胆量。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。