上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 37 下一页
摘要: 正则化,是减少泛化误差的技术。 阅读全文
posted @ 2019-03-09 21:15 happyyoung 阅读(204) 评论(0) 推荐(0) 编辑
摘要: 支持向量机(Support Vector Machine,简称SVM),属于监督学习。 核技巧(kernel trick) 名字很吓人,乍一听完全不懂什么意思,但其实它的名字是很有意义的。 1)首先,要清楚空间中点和向量的联系:一个点可以看成是以原点为起点,该点为终点的向量。例如,二维空间中,向量( 阅读全文
posted @ 2019-03-08 19:45 happyyoung 阅读(198) 评论(0) 推荐(0) 编辑
摘要: Adam算法 阅读全文
posted @ 2019-03-08 17:46 happyyoung 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 矩阵求导 参考链接: https://en.wikipedia.org/wiki/Matrix_calculus#Scalar-by-vector_identities 阅读全文
posted @ 2019-03-08 16:43 happyyoung 阅读(195) 评论(0) 推荐(0) 编辑
摘要: 最大似然估计 阅读全文
posted @ 2019-03-08 16:19 happyyoung 阅读(172) 评论(0) 推荐(0) 编辑
摘要: 最小二乘法 参考链接: https://zhuanlan.zhihu.com/p/27204466 阅读全文
posted @ 2019-03-08 15:05 happyyoung 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 前馈神经网络(Feedforward Neural Network,简称FNN),也叫多层感知机(Multilayer Perceptron,简称MLP)。FNN的目标是通过学习参数θ,得到最佳的函数y=f(x;θ),例如分类器,输入x,输出类别y。 1、前馈 也叫前向,信息单向流动,从输入层到隐藏 阅读全文
posted @ 2019-03-07 14:52 happyyoung 阅读(699) 评论(0) 推荐(0) 编辑
摘要: 雅可比矩阵 阅读全文
posted @ 2019-03-06 16:56 happyyoung 阅读(436) 评论(0) 推荐(0) 编辑
摘要: 递归神经网络 阅读全文
posted @ 2019-03-06 16:04 happyyoung 阅读(221) 评论(0) 推荐(0) 编辑
摘要: 循环神经网络(Recurrent Neural Network,简称RNN),通常用于处理序列数据。正如卷积神经网络通常用于处理网格数据(例如图像)一样。 1、展开计算图 输入、输出、记忆 权值 2、双向RNN 3、长期依赖 4、门控RNN(gated RNN) 长短期记忆(long short-t 阅读全文
posted @ 2019-03-06 16:03 happyyoung 阅读(414) 评论(0) 推荐(0) 编辑
上一页 1 ··· 20 21 22 23 24 25 26 27 28 ··· 37 下一页