随笔分类 -  李宏毅的深度学习笔记

上一页 1 2

机器学习常识
摘要: 阅读全文

posted @ 2020-02-15 13:34 cltt 阅读(97) 评论(0) 推荐(0) 编辑

梯度下降
摘要:调节学习率 微分大小意味着离最小值的距离 c点和a点c的微分较大,但是离最低点更近。 那么微分大小意味着离最小值的距离仅在不跨元素时才成立 考虑到二次微分 左边 :走的稳定右边: 步伐小,散乱。但快 feature scaling 特征缩放 w2的变化对y影响大w1的变化对y(loss)影响小,微分 阅读全文

posted @ 2020-02-14 22:15 cltt 阅读(140) 评论(0) 推荐(0) 编辑

regression
摘要:这个模型不好,因为隐藏因素:物种 优化这个模型 不同物种的对应的error线也是不一样的,那么error会更小,fit的更好当然还和其他的因素有关:不同物种在进化时的情况不同(如红色线),其次有些值略高或略低于直线(产生进化后CP值时有加rand) 此时可以构造更复杂的模型,把想到的因素都考虑进去, 阅读全文

posted @ 2020-02-11 21:13 cltt 阅读(264) 评论(0) 推荐(0) 编辑

上一页 1 2
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

点击右上角即可分享
微信分享提示