GPTSecurity

「塑造未来的安全领域智能革命」

【论文速读】| 大语言模型是少样本测试员:探索基于LLM的通用漏洞复现

本次分享论文:Large Language Models are Few-shot Testers: Exploring LLM-based General Bug Reproduction 基本信息 原文作者:Sungmin Kang, Juyeon Yoon, Shin Yoo 作者单位:KAIST School of Computing, Daejeon, Republic ...

“AI+Security”系列第2期(四):AI/机器学习供应链攻击

(加入“安全极客”知识星球,获取分享PPT等干货内容) 近日,由安全极客、Wisemodel 社区和 InForSec 网络安全研究国际学术论坛联合主办的“AI+Security”系列第二期线上活动如期举行。此次活动的主题为“对抗!大模型自身安全的攻防博弈”,旨在深入探讨和分析人工智能和机器学习领域中的安全问题。 在这次活动中,ChaMd5 AI组的负责人宁宇飞带来了一场主题为《AI/...

【论文速读】| 探索ChatGPT在软件安全应用中的局限性

本次分享论文:Exploring the Limits of ChatGPT in Software Security Applications 基本信息 原文作者:Fangzhou Wu, Qingzhao Zhang, Ati Priya Bajaj, Tiffany Bao, Ning Zhang, Ruoyu “Fish” Wang, Chaowei Xiao 作者单位:威...

【论文速读】| BIOCODER:一个具有上下文实用知识的生物信息学代码生成基准测试

本次分享论文:BIOCODER: A Benchmark for Bioinformatics Code Generation with Contextual Pragmatic Knowledge 基本信息 原文作者:Xiangru Tang, Bill Qian, Rick Gao, Jiakang Chen, Xinyun Chen, Mark Gerstein 作者单位:耶...

第53期|GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers W...