上一页 1 2 3 4 5 6 7 8 9 10 ··· 21 下一页
摘要: Momentum:解快了收敛速度,同时也减弱了SGD的波动 NAG: 减速了Momentum更新参数太快 Adagrad: 出现频率较低参数采用较大的更新,对于出现频率较高的参数采用较小的,不共用一个学习率 Adadelta:解决了Adagrad后续学习率为0的缺点,同时不要defalut 学习率 阅读全文
posted @ 2018-06-27 21:31 simple_wxl 阅读(329) 评论(0) 推荐(0) 编辑
摘要: 删除本地分支 命令行 : $ git branch -d <BranchName> 删除远程分支 命令行 : $ git push origin --delete <BranchName> git fetch:相当于是从远程获取最新版本到本地,不会自动合并。 git pull:相当于是从远程获取最新 阅读全文
posted @ 2018-04-07 20:28 simple_wxl 阅读(422) 评论(0) 推荐(0) 编辑
摘要: 下载文件 cuda8,自行网上下载online的安装包就好了 cudnn6 python36 tensorflow_gpu 下载地址:https://pan.baidu.com/s/1mjwOi5E ,密码:hyfb 配置挺简单的,就是中间出现cudnn版本不对,替换成正确的就好了 阅读全文
posted @ 2018-01-30 13:49 simple_wxl 阅读(503) 评论(0) 推荐(0) 编辑
摘要: 何凯明大佬 ICCV 2017 best student paper 作者提出focal loss的出发点也是希望one-stage detector可以达到two-stage detector的准确率,同时不影响原有的速度.one-stage detector的准确率不如two-stage det 阅读全文
posted @ 2018-01-11 11:02 simple_wxl 阅读(935) 评论(0) 推荐(0) 编辑
摘要: 毕设终于告一段落,传统方法的视觉做得我整个人都很奔溃,终于结束,可以看些搁置很久的一些论文了,嘤嘤嘤 Densely Connected Convolutional Networks 其实很早就出来了,cvpr 2017 best paper 觉得读论文前,还是把dense net的整个网络结构放到 阅读全文
posted @ 2018-01-10 11:45 simple_wxl 阅读(1741) 评论(0) 推荐(0) 编辑
摘要: 仙6,尽然后面还有这样一个动画,这样结局不能说悲了,越祁换今朝那一段以为女主已经死了,嘤嘤嘤 仙4 1)即墨,四人打败狐妖后看花灯,好美 2)琼华,四人拿到第二件寒器 阅读全文
posted @ 2017-12-10 00:05 simple_wxl 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 欢迎 follow 阅读全文
posted @ 2017-11-10 22:12 simple_wxl 阅读(663) 评论(1) 推荐(0) 编辑
摘要: How to decide which regularization (L1 or L2) to use? Is there collinearity among some features? L2 regularization can improve prediction quality in t 阅读全文
posted @ 2017-09-07 11:34 simple_wxl 阅读(1760) 评论(0) 推荐(0) 编辑
摘要: 前面:好老的东西啊,啊啊啊啊啊啊啊啊啊 来源于统计学习方法: 信息增益: 其中 信息增益率: 基尼指数: 取gini最小的 先剪枝——在构造过程中,当某个节点满足剪枝条件,则直接停止此分支的构造。 后剪枝——先构造完成完整的决策树,再通过某些条件遍历树进行剪枝。 adaboost 阅读全文
posted @ 2017-08-28 11:09 simple_wxl 阅读(1445) 评论(0) 推荐(0) 编辑
摘要: GPU和CPU实现的不一样,这里贴的是CPU中的drop out 直接看caffe里面的源码吧:(产生满足伯努利分布的随机数mask,train的时候,data除以p,...... scale_ = 1. / (1. - threshold_); 阅读全文
posted @ 2017-08-24 23:55 simple_wxl 阅读(526) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 21 下一页