摘要: 1. SGD Batch Gradient Descent 在每一轮的训练过程中,Batch Gradient Descent算法用整个训练集的数据计算cost fuction的梯度,并用该梯度对模型参数进行更新: Θ=Θ−α⋅▿ΘJ(Θ)Θ=Θ−α⋅▽ΘJ(Θ) 优点: cost fuction若 阅读全文
posted @ 2018-08-21 16:12 LW! 阅读(119) 评论(0) 推荐(0) 编辑
摘要: SSH的X11 Forwarding功能提供了一个非常好的方法,在你的本地主机上执行远程主机的GUI程序。比如你的开发环境可能是CentOS,你需要在CentOS下编码。但你的工作环境可能是Ubuntu,你在Ubuntu下收发邮件,浏览网页。你当然可以使用CentOS同时作为你的开发与工作环境,但你 阅读全文
posted @ 2018-08-21 11:47 LW! 阅读(2582) 评论(0) 推荐(0) 编辑