清华大学出版《DeepSeek与AI幻觉》pdf 免费分享下载
家人们,今天挖到一份超宝藏的文档——《DeepSeek与AI幻觉》,由清华大学的团队出品,含金量拉满!想知道AI那些让人又爱又恨的“小秘密”吗?这篇文档里全是干货,绝对值得一读,强烈建议先码再看!文末附上下载地址!
AI幻觉,简单来说,就是模型生成的内容和事实对不上,逻辑也不连贯,就像一个人一本正经地胡说八道。它分为事实性幻觉和忠实性幻觉。举个例子,问“糖尿病患者可以吃蜂蜜代替糖吗”,要是回答说蜂蜜能稳定血糖适合替代,这就和现实不符,属于事实性幻觉;要是回答蜂蜜营养好但不针对能不能替代糖的问题,那就是没理解用户意图,属于忠实性幻觉。
首先是数据偏差,训练数据要是有错误或不全面,模型学了就容易出错,比如医学领域用了过时论文训练,结论肯定跑偏。还有泛化困境,模型碰到训练集之外的复杂场景就“抓瞎” ,像预测南极冰层融化对非洲农业的影响,就很难准确判断。另外,模型知识更新不及时,过度依赖旧参数记忆,面对新事件只能瞎编;用户问题模糊时,模型也会“自由发挥”,给出不恰当的答案。
文档里介绍了两种测试方法。一种是模拟普通用户场景,随机生成提示语让大模型回答,然后人工判断标注;另一种是用大量事实性测试题,涵盖各个领域,对比正确答案来标注幻觉类型。测试结果显示,在通用性测试里,DeepSeekV3幻觉率2%,DeepSeekR1是3%;事实性测试中,DeepSeekV3幻觉率29.67% ,DeepSeekR1是22.33%。和其他大模型比,在这两项测试里,DeepSeekV3的幻觉率高于Qianwen2.5-Max,DeepSeekR1相对低一些,但都比豆包高。
普通用户可以试试双AI验证,用DeepSeek生成答案后,再找其他大模型审查,相互监督。提示词工程也很有用,比如限定知识边界,用时间锚定法规定回答基于某一时间前的信息,或者用知识锚定法限定权威信息来源;还能设置对抗性提示,让模型自我审查潜在错误。从技术层面看,RAG框架、结合外部知识库、精细训练和开发评估工具,都能应对AI幻觉。
在科学发现上,大卫·贝克团队靠AI的“错误折叠”启发了新型蛋白质结构,还拿了诺贝尔化学奖;在文艺设计领域,AI幻觉能突破人类思维定式,给游戏开发、文学创作提供灵感;技术创新方面,AI图像分割产生的“超现实边界”,意外提升了自动驾驶在极端天气下的识别精度。现在科学界还构建了“AI幻觉 - 实验验证 - 理论重构”的研究流程,把AI幻觉变成创新的助力。
这份文档把AI幻觉讲得明明白白,不管你是AI小白,还是对大模型有点研究的“进阶选手”,都能从中学到新知识。想深入了解AI、避免被AI幻觉误导,甚至利用幻觉搞创新的朋友,赶紧下载这篇文档好好研读!要是读完有啥想法,欢迎在评论区一起讨论!
感谢大家支持与关注!
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
· spring官宣接入deepseek,真的太香了~