08 2018 档案

摘要:(1)回想一下你初入大学时对计算机专业的畅想 1.当初你是如何做出选择计算机专业的决定的? 因为我是福州人,当初高考就是冲着福大来的。高考出分后,我的分数并不高不低,报不上福大经管、电气,也不会落到最差的专业,报计算机、软工这样的专业正好合适。此外,我高中时候经常写一些游戏脚本,本身就对编程有比较浓 阅读全文
posted @ 2018-08-22 21:40 cbattle 阅读(357) 评论(8) 推荐(0) 编辑
摘要:031602502;我是陈柏涛;我的爱好是打羽毛球(虽然打得不是很好hhh~);我最喜欢玫瑰二楼的蛋包饭;海阔凭鱼跃,天高任鸟飞。 阅读全文
posted @ 2018-08-21 21:16 cbattle 阅读(148) 评论(0) 推荐(0) 编辑
摘要:BN或Dropout单独使用能加速训练速度并且避免过拟合 但是倘若一起使用,会产生负面效果。 BN在某些情况下会削弱Dropout的效果 对此,BN与Dropout最好不要一起用,若一定要一起用,有2中方法: 1 在所有BN层后使用Dropout 2 修改Dropout公式(如使用高斯Dropout 阅读全文
posted @ 2018-08-14 16:23 cbattle 阅读(4641) 评论(0) 推荐(0) 编辑
摘要:forward backword 均值与方差 结果对x的偏导由3部分组成 经过复杂的推导可得: 为非常接近0的正数,处于分子,可以省略 代码实现 referance https://blog.csdn.net/leayc/article/details/77645877 http://costapt 阅读全文
posted @ 2018-08-13 17:50 cbattle 阅读(238) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/whitesilence/article/details/75667002 https://blog.csdn.net/malefactor/article/details/51476961 阅读全文
posted @ 2018-08-12 23:23 cbattle 阅读(101) 评论(0) 推荐(0) 编辑
摘要:批量梯度下降法BGD 通过对所有的样本的计算来求解梯度的方向 小批量梯度下降法MBGD Minibatch 通过对一部分个样本 (batch_size个) 的计算来求解梯度的方向 增大batch_size: 内存利用率提高,但可能遇到内存不足的问题 矩阵乘法的并行化效率提高 跑完一次全数据集所需的迭 阅读全文
posted @ 2018-08-11 17:28 cbattle 阅读(159) 评论(0) 推荐(0) 编辑
摘要:################################## # 更新Anaconda conda update conda # 更新所有包 conda update --all ################################## # 添加清华源 # 执行以下命令 conda config --add channels https://mirrors.tuna.t... 阅读全文
posted @ 2018-08-09 00:26 cbattle 阅读(23647) 评论(0) 推荐(1) 编辑
摘要:https://blog.csdn.net/fdqw_sph/article/details/78745375 阅读全文
posted @ 2018-08-02 12:19 cbattle 阅读(819) 评论(0) 推荐(0) 编辑
摘要:SGD : stochastic gradient descent (随机梯度下降) 1. 更新比较频繁,会造成 cost function 有严重的震荡,最终停留在 local minima (极小值) 或 saddle point (鞍点) 处 SGDM : SGD with Momentum 阅读全文
posted @ 2018-08-01 16:21 cbattle 阅读(405) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示