摘要: Abstract 背景: adversarial training paradigm Tool: Prompt Adversarial Tuning Task: trains a prompt control attached to the user prompt as a guard prefix 阅读全文
posted @ 2025-02-09 22:30 雪溯 阅读(6) 评论(0) 推荐(0) 编辑
摘要: Abstract 背景: 对抗性prompts对字符层次的变化很敏感 Task: Defense adversarial prompts by randomly perturbs multiple copies of a prompt then aggregates the responsees o 阅读全文
posted @ 2025-02-08 21:50 雪溯 阅读(4) 评论(0) 推荐(0) 编辑
摘要: Abstract Tool: PPL Findings: queries with adversarial suffixes have a higher perplexity, 可以利用这一点检测 仅仅使用perplexity filter对mix of prompt types不合适,会带来很高的 阅读全文
posted @ 2025-02-08 01:46 雪溯 阅读(6) 评论(0) 推荐(0) 编辑
摘要: Abstract 背景:现有的研究更多聚焦于拦截效果而忽视了可用性和性能 Benchmark: USEBench Metric: USEIndex Study: 7LLMs findings 主流的defenses机制往往不能兼顾安全和性能 (vertical comparisons?) 开发者往往 阅读全文
posted @ 2025-02-08 01:46 雪溯 阅读(10) 评论(0) 推荐(0) 编辑
摘要: Abstract Background: adversarial images/prompts can jailbreak Multimodal large language model and cause unaligned behaviors 本文报告了在multi-agent + MLLM环境 阅读全文
posted @ 2025-02-04 19:02 雪溯 阅读(2) 评论(0) 推荐(0) 编辑
摘要: Abstract 本文: Tools advICL Task: use demonstrations without changing the input to make LLM misclassify, the user input is known and fixed 特点:无法控制input, 阅读全文
posted @ 2025-02-03 02:42 雪溯 阅读(5) 评论(0) 推荐(0) 编辑
摘要: Abstract 分析对象 attack on models attack on model applications 阅读全文
posted @ 2025-02-02 02:53 雪溯 阅读(3) 评论(0) 推荐(0) 编辑
摘要: Abstract Background: Competitors: GCG with gradient-based search to generate adversarial suffixes in order to jailbreak LLM GCG的缺点:计算效率地下,没有对可转移性还有可拓展 阅读全文
posted @ 2025-02-02 00:49 雪溯 阅读(4) 评论(0) 推荐(0) 编辑
摘要: Abstract Background: 目前的jailbreak mutator方式更集中在语义level,更容易被防御措施检查到 本文: AdaPPA (Adaptive Position Pre-Filled Jailbreak Attack) Task: adaptive position 阅读全文
posted @ 2025-01-15 23:13 雪溯 阅读(2) 评论(0) 推荐(0) 编辑
摘要: Abstract background: 本文认为现有的jailbreaking方法要么需要人力,要么需要大模型,本文不需要 本文: ReNELLM Task: Jailbreaking LLM blackbox Method: Prompt Rewriting, Scenario Nesting, 阅读全文
posted @ 2025-01-15 23:12 雪溯 阅读(14) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示