摘要: 原文地址Count Bayesie 这篇文章是博客Count Bayesie上的文章Kullback-Leibler Divergence Explained 的学习笔记,原文对 KL散度 的概念诠释得非常清晰易懂,建议阅读KL散度( KL divergence)全称:Kul... 阅读全文
posted @ 2017-05-17 10:32 CodenameNC 阅读(3167) 评论(0) 推荐(0) 编辑
摘要: Introduction:A Non-Rigorous Review of Deep Learning 原文地址 本篇文章为 MIT 课程 Mathematical Aspects of Deep Learning 的lecture 1 的学习笔记,没有进行完整的翻译,仅供参考... 阅读全文
posted @ 2017-05-17 09:57 CodenameNC 阅读(169) 评论(0) 推荐(0) 编辑