1
头图

图片
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

                  Security Papers

🔹OpenAI新产品GPTBot:可爬取网络数据,为GPT-5做准备

简介:OpenAI在官网介绍了新产品GPTBot,这是一种网络爬虫,可大规模爬取网络数据用于训练AI模型。OpenAI表示,将通过GPTBot抓取海量数据,用于训练、优化未来模型。

链接:https://platform.openai.com/docs/gptbot

🔹全球最大开源地理大模型来啦!IBM、美国航天局权威出品

简介:IBM、NASA(美国国家航空航天局)同时在官网宣布,在Hugging Face上开源全球最大的地理空间大模型——Prithvi。据悉,Prithvi由NASA提供大量地理、气候、灾害等卫星遥感数据,在IBM的watsonx.ai模型上预训练、微调而成。Prithvi主要用于预测气候变化、洪水映射、跟踪森林砍伐、预测作物产量等。

链接:https://huggingface.co/ibm-nasa-geospatial/Prithvi-100M

🔹黑客类人工智能工具“FraudGPT”出现,专为复杂的攻击而设计

简介:追随WormGPT的脚步,攻击者组织正在各种暗网市场和 Telegram 频道上宣传另一种名为FraudGPT的网络犯罪生成人工智能 (AI) 工具。Netenrich 安全研究员Rakesh Krishnan 在周二发布的一份报告中表示:“FraudGPT是一个人工智能机器人,专门用于攻击目的,例如制作鱼叉式网络钓鱼电子邮件、创建破解工具等。”

链接:https://thehackernews.com/2023/07/new-ai-tool-fraudgpt-emerge...

                    Security Tools

🔹GPTreport

简介:该工具用于通过openai api自动生成makedown漏洞报告。

链接:https://github.com/shiyeshu/GPTreport

🔹Large Language Models are Zero-Shot Fuzzers: Fuzzing Deep-Learning Libraries via Large Language Models

简介:本文证明了现代titanic LLMs可以直接执行几十年来研究的基于世代和基于突变的模糊测试,同时完全自动化、可遗传化,并适用于挑战传统方法的领域(如DL系统)。我们希望TrTANFuzz能够激发LLM在模糊测试这一有希望的方向上的工作。

链接:https://arxiv.org/pdf/2212.14834.pdf

🔹当GPT遇到程序分析:迈向智能检测GPTScan中的智能合约逻辑漏洞

简介:在本文中,我们提出了GPTScan,这是第一个将GPTScan与静态分析相结合的智能合约逻辑漏洞检测工具。GPTScan不是仅仅依靠GPT来识别漏洞,而是利用GPT作为一种通用的代码理解工具。

链接:https://arxiv.org/pdf/2308.03314.pdf


云起无垠
9 声望13 粉丝

国内首创的Fuzzing 全流程赋能开发安全-DevSecOps 解决方案供应商, 基于智能模糊测试引擎为协议、数据库、API、APP、Web3.0 等场景提供强大的软件安全自动化分析能力,从源头助力企业自动化检测与修复业务系统安...