头图

图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

                        Security Papers

🔹Meta’s Q1 2023 Security Reports: Protecting People and Businesses

在季度诚信报告中,我们分享了第一季度对各种威胁的打击情况。我们已经检测到了针对在线用户的恶意软件活动,分享发现之后增强了安全功能。我们针对全球九个参与秘密影响和网络间谍的网络采取了行动,并与行业同行和政府分享了目前感知到的风险。

链接:https://about.fb.com/news/2023/05/metas-q1-2023-security-repo...

🔹Tenable report shows how generative AI is changing security research 

本研究侧重于四种新工具,旨在帮助人类研究人员简化逆向工程、漏洞分析、代码调试和Web应用程序安全,并识别基于云的错误配置。

链接:https://venturebeat.com/security/tenable-report-shows-how-gen...

🔹Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM Future

本研究通过引入区块链支持的SBOM共享方法,利用可验证的凭证来允许选择性披露,从而为这些挑战提出了一种新颖的解决方案。

链接:https://arxiv.org/pdf/2307.02088.pdf

🔹SecureFalcon: The Next Cyber Reasoning System for Cyber Security

我们构建了一个新的训练集FormAI,它得益于生成人工智能(AI)和形式验证来评估其性能。

链接:https://arxiv.org/pdf/2307.06616.pdf

🔹Detecting software vulnerabilities using Language Models

在本文中,FalconLLM首次针对网络安全应用进行了微调,从而引入了SecureFalcon,这是一种基于FalconLLM构建的创新模型架构。SecureFalcon经过训练,可以区分易受攻击和非易受攻击的C代码样本。我们构建了一个新的训练集FormAI,该训练集得益于生成人工智能(AI)和形式验证来评估其性能。

链接: https://arxiv.org/ftp/arxiv/papers/2302/2302.11773.pdf

                   Security Tools

🔹openai-cti-summarizer

简介:openai-cti-summarizer是一款基于OpenAI's GPT-3.5和GPT-4 API生成威胁情报总结报告的工具

链接:https://github.com/EC-DIGIT-CSIRC/openai-cti-summarizer

🔹Codamosa

简介:CodaMOSA是CODAMOSA: Escaping Coverage Plateaus in Test Generation with Pre-trained Large Language Models的论文代码,实现了一款结合了OpenAI API的fuzzer,旨在缓解传统fuzz中陷入覆盖率停滞不前的问题

链接:https://github.com/microsoft/codamosa

🔹ChatGPT Security Code Analyzer

简介:Go based low code Honeypot Framework with Enhanced Security, leveraging GPT-3 for System Virtualization

链接:https://github.com/mariocandela/beelzebub


云起无垠
9 声望13 粉丝

国内首创的Fuzzing 全流程赋能开发安全-DevSecOps 解决方案供应商, 基于智能模糊测试引擎为协议、数据库、API、APP、Web3.0 等场景提供强大的软件安全自动化分析能力,从源头助力企业自动化检测与修复业务系统安...