GPTSecurity

「塑造未来的安全领域智能革命」

【论文速读】| 针对大语言模型的可转移集成黑盒越狱攻击

基本信息 原文标题:Transferable Ensemble Black-box Jailbreak Attacks on Large Language Models 原文作者:Yiqi Yang, Hongye Fu 作者单位:未明确显示关键词:越狱攻击,黑盒攻击,集成方法,大语言模型(LLM) 原文链接:https://arxiv.org/pdf/2410.23558 开...

【论文速读】| 人工智能驱动的网络威胁情报自动化

基本信息 原文标题:AI-Driven Cyber Threat Intelligence Automation 原文作者:Shrit Shah, Fatemeh Khoda Parast 作者单位:加拿大圭尔夫大学计算机科学学院 关键词:网络威胁情报,AI自动化,攻击技术和策略,持久性威胁 原文链接:https://arxiv.org/pdf/2410.20287 开源代码...

第76期|GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers 关...

【论文速读】| 通过良性数据镜像对大语言模型进行隐蔽越狱攻击

基本信息 原文标题:Stealthy Jailbreak Attacks on Large Language Models via Benign Data Mirroring 原文作者:Honglin Mu, Han He, Yuxin Zhou, Yunlong Feng, Yang Xu, Libo Qin, Xiaoming Shi, Zeming Liu, Xudong Ha...

【论文速读】|RobustKV:通过键值对驱逐防御大语言模型免受越狱攻击

基本信息 原文标题:ROBUSTKV: DEFENDING LARGE LANGUAGE MODELS AGAINST JAILBREAK ATTACKS VIA KV EVICTION 原文作者:Tanqiu Jiang, Zian Wang, Jiacheng Liang, Changjiang Li, Yuhui Wang, Ting Wang 作者单位:Stony Broo...