头图

图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好的知悉近一周的贡献内容,现总结如下。

                        Security Papers

1.GPT自身安全

ChatGPT Security Risks: A Guide for Cyber Security Professionals

https://www.cybertalk.org/wp-content/uploads/2023/03/ChatGPT_...

安全测试中的 ChatGPT AI:机遇与挑战 

https://www.cyfirma.com/outofband/chatgpt-ai-in-security-test...

OWASP发布了Top 10 for Large Language Model Applications项目,旨在教育开发人员、设计师、架构师、经理和组织了解部署和管理大语言模型LLM时的潜在安全风险,该项目提供了一个常见于LLM应用中的十个最关键漏洞的列表。

https://owasp.org/www-project-top-10-for-large-language-model...

2.软件供应链安全

ChatGPT 生成代码的安全漏洞 

https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security...


云起无垠
12 声望16 粉丝

国内首创的Fuzzing 全流程赋能开发安全-DevSecOps 解决方案供应商, 基于智能模糊测试引擎为协议、数据库、API、APP、Web3.0 等场景提供强大的软件安全自动化分析能力,从源头助力企业自动化检测与修复业务系统安...