2019年9月2日

摘要: 参考:https://pan.baidu.com/s/1MfcmXKopna3aLZHkD3iL3w 一、为什么要读论文? 基础技术:读论文中的related works可以帮助了解该领域的一些主要的技术,追踪该领域经典算法论文 新方向和思路:了解该领域最新的解决思路 复现:更透彻的理解算法逻辑,锻 阅读全文
posted @ 2019-09-02 21:54 海阔心 阅读(961) 评论(0) 推荐(0) 编辑

2019年8月28日

摘要: 参考:https://www.cnblogs.com/pinard/p/7160330.html word2vector 训练词向量时采用霍夫曼树来代替softmax,这里先看一下什么是霍夫曼树? 过一个案例来学习一棵霍夫曼树是怎么建立起来的 说总共有6个节点(a, b, c, d, e, f, g 阅读全文
posted @ 2019-08-28 22:16 海阔心 阅读(449) 评论(0) 推荐(0) 编辑

2019年8月27日

摘要: 任务简述:最近做一个图像分类的任务, 一开始拿vgg跑一个baseline,输出看起来很正常: 随后,我尝试其他的一些经典的模型架构,比如resnet50, xception,但训练输出显示明显异常: val_loss 一直乱蹦,val_acc基本不发生变化。 检查了输入数据没发现问题,因此怀疑是网 阅读全文
posted @ 2019-08-27 18:02 海阔心 阅读(13864) 评论(4) 推荐(1) 编辑

2019年8月23日

摘要: 转载自 https://blog.csdn.net/qq_16234613/article/details/79596609 注意1、调参看验证集。trainset loss通常能够一直降低,但validation set loss在经过一段降低期后会开始逐渐上升,此时模型开始在训练集上过拟合。2、 阅读全文
posted @ 2019-08-23 11:57 海阔心 阅读(997) 评论(0) 推荐(1) 编辑
摘要: 参考: https://www.cnblogs.com/pinard/p/7243513.html https://blog.csdn.net/cindy_1102/article/details/88079703 http://web.stanford.edu/class/cs224n/readi 阅读全文
posted @ 2019-08-23 00:54 海阔心 阅读(291) 评论(0) 推荐(1) 编辑

2018年1月10日

摘要: numpy基础 阅读全文
posted @ 2018-01-10 17:39 海阔心 阅读(288) 评论(0) 推荐(1) 编辑

导航