打赏
摘要: 常见的方法有:选取更好的代价函数,就是被称为交叉熵代价函数(the cross-entropy cost function); 四种正则化方法(L1和L2正则、dropout、训练数据的扩展) 一.交叉熵代价函数: 考虑一下神经元的学习方式:通过计算代价函数的偏导 和 来改变权重和偏移。那么我们说「 阅读全文
posted @ 2017-09-24 21:03 巴尔扎克_S 阅读(2408) 评论(0) 推荐(0) 编辑