可解释人工智能导论,推荐序

推荐序:

          符号主义,知识驱动,天然可解释。专家知识获取苦难。深度学习,本质不可解释,难以得到用户信任。

          深度学习AI原理不可解释。网络缺乏鲁棒性;

          语义的不可解释性。深度学习挖掘数据中变量之间的关联,因果、混淆和样本选择偏差。

          通常找到的是“虚假”和“表面”的关联,而不是因果关系。降低信任程度。

          贝叶斯方法可以用来描述不确定性,又可用直观、清晰的图形描述变量之间的直接作用关系,

               刻画变量之间的条件独立性,从而学到可解释的、用户友好的特征。

          因果模型聚焦于因果关系,能够给出更加稳定和可靠的解释。

          结合知识驱动和数据驱动两种范式,从根本上解决可解释问题。

          如何将知识与深度模型结合,或者导入因果关系,有待进一步深入。

posted @   刘素9771  阅读(37)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示