可解释人工智能导论,推荐序
推荐序:
符号主义,知识驱动,天然可解释。专家知识获取苦难。深度学习,本质不可解释,难以得到用户信任。
深度学习AI原理不可解释。网络缺乏鲁棒性;
语义的不可解释性。深度学习挖掘数据中变量之间的关联,因果、混淆和样本选择偏差。
通常找到的是“虚假”和“表面”的关联,而不是因果关系。降低信任程度。
贝叶斯方法可以用来描述不确定性,又可用直观、清晰的图形描述变量之间的直接作用关系,
刻画变量之间的条件独立性,从而学到可解释的、用户友好的特征。
因果模型聚焦于因果关系,能够给出更加稳定和可靠的解释。
结合知识驱动和数据驱动两种范式,从根本上解决可解释问题。
如何将知识与深度模型结合,或者导入因果关系,有待进一步深入。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律