浅谈大语言模型相关的安全性议题(下)---欺骗大语言模型
一.LLM也会被诈骗
1.Jailbreaking:攻击语言模型本身,让语言模型说出本来不应该说的话
- 输入特定的Jailbreak Prompt,例如让LLM变成DAN("Do Anything Now")
- 使用它没有那么熟悉的语言引导LLM去Jailbreaking
- 给它一些冲突的指令
- 说服LLM做出不适当的事
2.Prompt Injection:攻击语言模型打造的应用(AI助教),让语言模型玩忽职守,让语言模型在不恰当的时间做不恰当的事
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 没有源码,如何修改代码逻辑?
· PowerShell开发游戏 · 打蜜蜂
· 在鹅厂做java开发是什么体验
· 百万级群聊的设计实践
· WPF到Web的无缝过渡:英雄联盟客户端的OpenSilver迁移实战