懵懂的菜鸟

Stay hungry,Stay foolish.

导航

2018年3月23日 #

Dropout

摘要: Dropout: Dropout is a radically different technique for regularization. Unlike L1 and L2 regularization, dropout doesn't rely on modifying the cost fu 阅读全文

posted @ 2018-03-23 21:10 懵懂的菜鸟 阅读(351) 评论(0) 推荐(0) 编辑

随机梯度下降法

摘要: 在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。 1. 梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数 阅读全文

posted @ 2018-03-23 21:06 懵懂的菜鸟 阅读(8351) 评论(0) 推荐(1) 编辑

L1范式和L2范式

摘要: 正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失 阅读全文

posted @ 2018-03-23 21:01 懵懂的菜鸟 阅读(1747) 评论(0) 推荐(0) 编辑