Toggle navigation
GPTSecurity
Home
Github
About
Archive
Tags
RSS
GPTSecurity
「塑造未来的安全领域智能革命」
【论文速读】| PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Jailbreak Approach 原文作者: Zhihao Lin, Wei Ma, Mingyi Zhou, Yanjie Zhao, Haoyu Wang, Yang Liu, Ju...
Posted by 安全极客 on November 20, 2024
【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
基本信息 原文标题:RED QUEEN: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking 原文作者:Yifan Jiang, Kriti Aggarwal, Tanmay Laud, Kashif Munir, Jay Pujara, Subhabrata Mukherjee ...
Posted by 安全极客 on November 20, 2024
第72期|GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers 从...
Posted by 安全极客 on November 20, 2024
技术分享 | 大语言模型增强灰盒模糊测试技术探索
大语言模型凭借其庞大的参数规模,能够通过无监督学习从海量文本中获取知识,从而不仅能够深刻理解文本语义,还能准确识别文本的格式和结构。凭借对不同数据结构的深度理解,大语言模型已在众多领域得到广泛应用。其中,尤其是在软件测试任务中的灰盒模糊测试中,大语言模型展现出了独特的优势。本文旨在深入探讨大语言模型如何增强灰盒模糊测试技术,并展望其在未来测试领域的应用前景。 灰盒模糊测试概述 模糊测试是...
Posted by 安全极客 on November 7, 2024
技术分享 | 大语言模型赋能软件测试:开启智能软件安全新时代
在当今数字化时代,软件安全问题的严峻性日益凸显。随着网络攻击手段变得愈发复杂多样,切实保障软件系统的安全性已然成为开发者以及企业所面临的核心挑战。依据国际网络安全机构的相关报告,网络攻击事件的发生频率与复杂程度呈现出逐年递增的态势,这给企业带来了极为巨大的经济损失以及不可忽视的信誉损害。在此背景之下,提升软件安全性无疑成为了各大企业的首要任务。伴随大模型和 AIGC 等技术的持续蓬勃发展,软...
Posted by 安全极客 on November 7, 2024
← Newer Posts
Older Posts →
FEATURED TAGS
AIGC
Security
论文速读
GPTSecurity周报
“AI+Security”系列
LLMS
关于我们
塑造未来的安全领域智能革命
知
社区伙伴
云起无垠
安全极客
加入我们
默小西