GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
1.模型窃取:针对法学硕士的提取攻击
简介:模型Leeching是一种针对大型语言模型(LLM)的新型提取攻击,能够将目标LLM中的任务特定知识提取到简化参数模型中。研究者通过从ChatGPT-3.5-Turbo中提取任务能力来证明攻击的有效性,实现了73%的精确匹配(EM)相似性,SQuAD EM和F1的准确率分别为75%和87%。研究者进一步证明了从通过模型Leeching提取的提取模型中进行对抗性平台转移以执行针对目标LLM的ML攻击分期的可行性,当应用于ChatGPT-3.5-Turbo时,攻击成功率提高了11%。
链接:https://arxiv.org/pdf/2309.10544.pdf
2.大型语言模型的知识清理
简介:研究者探索了一种知识清理方法,以减轻与大型语言模型(llm)相关的隐私问题。实验结果表明,研究者的方法不仅最大限度地减少了特定知识的泄漏,而且保持了LLM的整体性能。
链接:https://arxiv.org/pdf/2309.11852.pdf
3.安全、安保、隐私与提示:人工智能时代的网络弹性
简介:本白皮书旨在介绍人工智能重塑网络安全的主题,为商业决策者和政策制定者设定一些关键的人工智能概念、威胁和机遇的理解基线,以支持他们在这个快节奏、令人兴奋的新技术时代的思考和战略。
链接:https://www.nccgroup.com/media/reybxvtp/ncc-group-cyber-resil...
4.保障未来:人工智能驱动世界的网络安全
简介:这份白皮书涉及人工智能和网络安全的前沿关键问题。通过探索其中包含的最佳实践和建议,研究者表示大家可以充满信心地在数字优先的世界中开辟新的篇章。让大家共同踏上这段旅程,利用人工智能的变革力量,同时保护我们的数字未来。
链接:https://cpx.net/media/dvjpnyry/securing-the-future-a-whitepap...
5.SIGMA:安全的GPT推理与功能秘密共享
简介:SIGMA,第一个基于FSS的安全变压器推断端到端系统。通过为复杂的机器学习功能(如Softmax和GeLU)构建新的基于fss的协议,并加速其在gpu上的计算,SIGMA将变压器的安全参考延迟提高了11 - 19倍,比使用预处理和gpu的最先进状态。研究者提出了生成式预训练变压器(GPT)模型的第一个安全推理。特别是SIGMA在74秒内执行了13亿个参数的GPT-Neo,在1.6秒内执行了HuggingFace的GPT2。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。