GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
🔹Meta’s Q1 2023 Security Reports: Protecting People and Businesses
在季度诚信报告中,我们分享了第一季度对各种威胁的打击情况。我们已经检测到了针对在线用户的恶意软件活动,分享发现之后增强了安全功能。我们针对全球九个参与秘密影响和网络间谍的网络采取了行动,并与行业同行和政府分享了目前感知到的风险。
链接:https://about.fb.com/news/2023/05/metas-q1-2023-security-repo...
🔹Tenable report shows how generative AI is changing security research
本研究侧重于四种新工具,旨在帮助人类研究人员简化逆向工程、漏洞分析、代码调试和Web应用程序安全,并识别基于云的错误配置。
链接:https://venturebeat.com/security/tenable-report-shows-how-gen...
🔹Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM Future
本研究通过引入区块链支持的SBOM共享方法,利用可验证的凭证来允许选择性披露,从而为这些挑战提出了一种新颖的解决方案。
链接:https://arxiv.org/pdf/2307.02088.pdf
🔹SecureFalcon: The Next Cyber Reasoning System for Cyber Security
我们构建了一个新的训练集FormAI,它得益于生成人工智能(AI)和形式验证来评估其性能。
链接:https://arxiv.org/pdf/2307.06616.pdf
🔹Detecting software vulnerabilities using Language Models
在本文中,FalconLLM首次针对网络安全应用进行了微调,从而引入了SecureFalcon,这是一种基于FalconLLM构建的创新模型架构。SecureFalcon经过训练,可以区分易受攻击和非易受攻击的C代码样本。我们构建了一个新的训练集FormAI,该训练集得益于生成人工智能(AI)和形式验证来评估其性能。
链接: https://arxiv.org/ftp/arxiv/papers/2302/2302.11773.pdf
Security Tools
🔹openai-cti-summarizer
简介:openai-cti-summarizer是一款基于OpenAI's GPT-3.5和GPT-4 API生成威胁情报总结报告的工具
链接:https://github.com/EC-DIGIT-CSIRC/openai-cti-summarizer
🔹Codamosa
简介:CodaMOSA是CODAMOSA: Escaping Coverage Plateaus in Test Generation with Pre-trained Large Language Models的论文代码,实现了一款结合了OpenAI API的fuzzer,旨在缓解传统fuzz中陷入覆盖率停滞不前的问题
链接:https://github.com/microsoft/codamosa
🔹ChatGPT Security Code Analyzer
简介:Go based low code Honeypot Framework with Enhanced Security, leveraging GPT-3 for System Virtualization
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。