摘要:
1. SGD Batch Gradient Descent 在每一轮的训练过程中,Batch Gradient Descent算法用整个训练集的数据计算cost fuction的梯度,并用该梯度对模型参数进行更新: Θ=Θ−α⋅▿ΘJ(Θ)Θ=Θ−α⋅▽ΘJ(Θ) 优点: cost fuction若 阅读全文
摘要:
SSH的X11 Forwarding功能提供了一个非常好的方法,在你的本地主机上执行远程主机的GUI程序。比如你的开发环境可能是CentOS,你需要在CentOS下编码。但你的工作环境可能是Ubuntu,你在Ubuntu下收发邮件,浏览网页。你当然可以使用CentOS同时作为你的开发与工作环境,但你 阅读全文