GPTSecurity

「塑造未来的安全领域智能革命」

【论文速读】| APILOT:通过避开过时API陷阱,引导大语言模型生成安全代码

基本信息 原文标题:APILOT: Navigating Large Language Models to Generate Secure Code by Sidestepping Outdated API Pitfalls 原文作者:Weiheng Bai, Keyang Xuan, Pengxiang Huang, Qiushi Wu, Jianing Wen, Jingjing...

【论文速读】| LSAST:通过LLM支持的静态应用安全测试增强网络安全

基本信息 原文标题:LSAST: Enhancing Cybersecurity through LLM-supported Static Application Security Testing 原文作者:Mete Keltek, Ziyue Li作者单位:University of Cologne 关键词:漏洞扫描、大语言模型、静态应用安全测试、隐私保护、知识检索 原文链接:...

【论文速读】| 攻击图谱:从实践者的角度看生成式人工智能红队测试中的挑战与陷阱

基本信息 原文标题:Attack Atlas: A Practitioner’s Perspective on Challenges and Pitfalls in Red Teaming GenAI 原文作者:Ambrish Rawat, Stefan Schoepf, Giulio Zizzo, Giandomenico Cornacchia, Muhammad Zaid Ham...

第71期|GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers 大...

【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击

基本信息 原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs 原文作者:Xueluan Gong, Mingzhe Li, Yilin Zhang, Fengyuan Ran, Chen Chen, Yanjiao Chen, Qian Wang, Kwok-Yan Lam ...