GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
🔹OpenAI新产品GPTBot:可爬取网络数据,为GPT-5做准备
简介:OpenAI在官网介绍了新产品GPTBot,这是一种网络爬虫,可大规模爬取网络数据用于训练AI模型。OpenAI表示,将通过GPTBot抓取海量数据,用于训练、优化未来模型。
链接:https://platform.openai.com/docs/gptbot
🔹全球最大开源地理大模型来啦!IBM、美国航天局权威出品
简介:IBM、NASA(美国国家航空航天局)同时在官网宣布,在Hugging Face上开源全球最大的地理空间大模型——Prithvi。据悉,Prithvi由NASA提供大量地理、气候、灾害等卫星遥感数据,在IBM的watsonx.ai模型上预训练、微调而成。Prithvi主要用于预测气候变化、洪水映射、跟踪森林砍伐、预测作物产量等。
链接:https://huggingface.co/ibm-nasa-geospatial/Prithvi-100M
🔹黑客类人工智能工具“FraudGPT”出现,专为复杂的攻击而设计
简介:追随WormGPT的脚步,攻击者组织正在各种暗网市场和 Telegram 频道上宣传另一种名为FraudGPT的网络犯罪生成人工智能 (AI) 工具。Netenrich 安全研究员Rakesh Krishnan 在周二发布的一份报告中表示:“FraudGPT是一个人工智能机器人,专门用于攻击目的,例如制作鱼叉式网络钓鱼电子邮件、创建破解工具等。”
链接:https://thehackernews.com/2023/07/new-ai-tool-fraudgpt-emerge...
Security Tools
🔹GPTreport
简介:该工具用于通过openai api自动生成makedown漏洞报告。
链接:https://github.com/shiyeshu/GPTreport
🔹Large Language Models are Zero-Shot Fuzzers: Fuzzing Deep-Learning Libraries via Large Language Models
简介:本文证明了现代titanic LLMs可以直接执行几十年来研究的基于世代和基于突变的模糊测试,同时完全自动化、可遗传化,并适用于挑战传统方法的领域(如DL系统)。我们希望TrTANFuzz能够激发LLM在模糊测试这一有希望的方向上的工作。
链接:https://arxiv.org/pdf/2212.14834.pdf
🔹当GPT遇到程序分析:迈向智能检测GPTScan中的智能合约逻辑漏洞
简介:在本文中,我们提出了GPTScan,这是第一个将GPTScan与静态分析相结合的智能合约逻辑漏洞检测工具。GPTScan不是仅仅依靠GPT来识别漏洞,而是利用GPT作为一种通用的代码理解工具。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。