Toggle navigation
GPTSecurity
Home
Github
About
Archive
Tags
RSS
GPTSecurity
「塑造未来的安全领域智能革命」
【论文速读】| APILOT:通过避开过时API陷阱,引导大语言模型生成安全代码
基本信息 原文标题:APILOT: Navigating Large Language Models to Generate Secure Code by Sidestepping Outdated API Pitfalls 原文作者:Weiheng Bai, Keyang Xuan, Pengxiang Huang, Qiushi Wu, Jianing Wen, Jingjing...
Posted by 安全极客 on November 7, 2024
【论文速读】| LSAST:通过LLM支持的静态应用安全测试增强网络安全
基本信息 原文标题:LSAST: Enhancing Cybersecurity through LLM-supported Static Application Security Testing 原文作者:Mete Keltek, Ziyue Li作者单位:University of Cologne 关键词:漏洞扫描、大语言模型、静态应用安全测试、隐私保护、知识检索 原文链接:...
Posted by 安全极客 on November 7, 2024
【论文速读】| 攻击图谱:从实践者的角度看生成式人工智能红队测试中的挑战与陷阱
基本信息 原文标题:Attack Atlas: A Practitioner’s Perspective on Challenges and Pitfalls in Red Teaming GenAI 原文作者:Ambrish Rawat, Stefan Schoepf, Giulio Zizzo, Giandomenico Cornacchia, Muhammad Zaid Ham...
Posted by 安全极客 on November 7, 2024
第71期|GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers 大...
Posted by 安全极客 on November 7, 2024
【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击
基本信息 原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs 原文作者:Xueluan Gong, Mingzhe Li, Yilin Zhang, Fengyuan Ran, Chen Chen, Yanjiao Chen, Qian Wang, Kwok-Yan Lam ...
Posted by 安全极客 on October 18, 2024
← Newer Posts
Older Posts →
FEATURED TAGS
AIGC
Security
论文速读
GPTSecurity周报
“AI+Security”系列
LLMS
关于我们
塑造未来的安全领域智能革命
知
社区伙伴
云起无垠
安全极客
加入我们
默小西