GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好的知悉近一周的贡献内容,现总结如下。
Security Papers
1.GPT自身安全
ChatGPT Security Risks: A Guide for Cyber Security Professionals
https://www.cybertalk.org/wp-content/uploads/2023/03/ChatGPT_...
安全测试中的 ChatGPT AI:机遇与挑战
https://www.cyfirma.com/outofband/chatgpt-ai-in-security-test...
OWASP发布了Top 10 for Large Language Model Applications项目,旨在教育开发人员、设计师、架构师、经理和组织了解部署和管理大语言模型LLM时的潜在安全风险,该项目提供了一个常见于LLM应用中的十个最关键漏洞的列表。
https://owasp.org/www-project-top-10-for-large-language-model...
2.软件供应链安全
ChatGPT 生成代码的安全漏洞
https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security...
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。