GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好的知悉近一周的贡献内容,现总结如下如下。
Security Papers
1.以数据安全训练GPT
如何训练自己的“安全大模型”
https://mp.weixin.qq.com/s/801sV5a7-wOh_1EN3U64-Q
2.GPT自身安全
LLM中的安全隐患-以VirusTotal Code Insight中的提示注入为例
https://mp.weixin.qq.com/s/U2yPGOmzlvlF6WeNd7B7ww
Security Tools
WPeChatGPT
简介:基于GPT-3.5-Turbo模型、提供二进制文件自动化分析的IDA插件
https://github.com/YulinSec/ChatGPTScanner
cspm-gpt
简介:展示了如何使用 LLM 和 langchain agent、以提问的方式了解云环境的安全状况。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。