Toggle navigation
GPTSecurity
Home
Github
About
Archive
Tags
RSS
GPTSecurity
「塑造未来的安全领域智能革命」
【论文速读】| AttackQA:利用微调及开源大语言模型辅助网络安全运营的数据集的开发与应用
基本信息 原文标题: AttackQA: Development and Adoption of a Dataset for Assisting Cybersecurity Operations Using Fine-Tuned and Open-Source LLMs 原文作者: Varun Badrinath Krishna 作者单位: SambaNova Systems 关...
Posted by 安全极客 on January 3, 2025
【论文速读】| 针对域名生成算法(DGA)和 DNS 数据泄露检测的大语言模型微调
基本信息 原文标题:Fine-tuning Large Language Models for DGA and DNS Exfiltration Detection 原文作者:Md Abu Sayed, Asif Rahman, Christopher Kiekintveld, Sebastian García 作者单位:University of Texas at El Paso...
Posted by 安全极客 on January 3, 2025
第77期|GPTSecurity周报
GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。 Security Papers 1...
Posted by 安全极客 on January 3, 2025
【报告解读】| NIST人工智能报告:对抗性机器学习分类与术语全解析(附原文)
在当今数字化时代,人工智能(AI)系统正以前所未有的速度发展并广泛应用于各个领域,从自动驾驶汽车到医疗诊断,从智能助手到金融分析。然而,这些系统在带来便利的同时,也面临着严峻的安全挑战。美国国家标准与技术研究院(NIST)发布的《可信与负责任的人工智能》报告,聚焦于对抗性机器学习(AML)领域,旨在构建一个全面的概念分类体系,并明确相关术语定义,为保障人工智能系统的安全提供坚实的理论基础...
Posted by 安全极客 on January 3, 2025
【论文速读】| HijackRAG:针对检索增强型大语言模型的劫持攻击
基本信息 原文标题:Hijacking Attacks against Retrieval-Augmented Large Language Models 原文作者:Yucheng Zhang, Qinfeng Li, Tianyu Du, Xuhong Zhang, Xinkui Zhao, Zhengwen Feng, Jianwei Yin 作者单位:浙江大学 关键词:检索...
Posted by 安全极客 on January 3, 2025
Older Posts →
FEATURED TAGS
AIGC
Security
论文速读
GPTSecurity周报
“AI+Security”系列
LLMS
关于我们
塑造未来的安全领域智能革命
知
社区伙伴
云起无垠
安全极客
加入我们
默小西