2020年1月30日

批量梯度下降和随机梯度下降(SGD)和小批量梯度下降 || 在线学习机制

摘要: 左侧像高方差的算法,增加训练集的大小提高性能 右侧像高偏差的算法,不需要增大算法的规模,m=1000就很好了 一个很自然的方法是多加一些特征 或者在你的神经网络里加一些隐藏的单元等等 所以最后你会变成一个像左边的图 也许这相当于m等于1000 这给你更多的信心去花时间在添加基础设施来改进算法 而不是 阅读全文

posted @ 2020-01-30 22:35 cltt 阅读(530) 评论(0) 推荐(0) 编辑

导航