头图

图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

                    Security Papers

1.如何写好提示符,让GPT适用于静态分析

简介:基于LLM与静态分析理解,结合利用LLM进行代码总结、注释,总结了此篇内容。

链接:https://mp.weixin.qq.com/s/9aHMBzftMEmi31YUYMPjbg

2.Chat GPT发现安全漏洞,人工智能潜在隐患该如何防范?

简介:布朗大学的计算机科学研究人员发现了 Open AI 的 GPT-4 安全设置中的新漏洞。他们利用一些不太常见的语言,如祖鲁语和盖尔语,即可绕过 GPT-4 的限制。研究人员使用这些语言来写通常受限的提示词,发现得到回答的成功率为 79%,而仅使用英语的成功率不到 1%。这一测试结果表明,Chat GPT 在非常用语言限制功能上存在安全漏洞,这可能会给犯罪分子可乘之机。人工智能存在哪些潜在的安全隐患?我们应该如何防范?

链接:https://mp.weixin.qq.com/s/EmAL1UUgIqetig65f-wujw

3.为何GPT-4P容易受到多模态提示注入图像攻击?

简介:OpenAI新的GPT-4V版本支持图像上传后,带来了一条全新的攻击途径,使大型语言模型(LLM)容易受到多模态注入图像攻击。攻击者可以在图像中嵌入命令、恶意脚本和代码,随后模型会遵从行事。

链接:https://mp.weixin.qq.com/s/hg3fI21LoiuceLMF_iwO9Q

4.ChatGPT企业版上线,无限制使用,更快更高效更安全!

OpenAI的新动作让人眼前一亮,他们不仅刚刚发布了GPT-3.5微调API,而且还悄悄地推出了最强大的ChatGPT版本——ChatGPT企业版!

链接:https://mp.weixin.qq.com/s/Gz9BpwWZya5FIEhfrKXglQ

5.网络攻击者将AIGC和恶意软件集成,使威胁级别上升

根据研究数据,与前几个季度相比,北美有组织的身份欺诈增加了44%。这种激增被认为是由持续的经济复苏和通胀压力推动的,特别是在美国市场,这助长了专业身份证诈骗集团的胆量。

链接:https://mp.weixin.qq.com/s/u3TtEG3jGVcB2KynqkKQjA


云起无垠
9 声望13 粉丝

国内首创的Fuzzing 全流程赋能开发安全-DevSecOps 解决方案供应商, 基于智能模糊测试引擎为协议、数据库、API、APP、Web3.0 等场景提供强大的软件安全自动化分析能力,从源头助力企业自动化检测与修复业务系统安...