08 2019 档案

霍夫曼树
摘要:参考:https://www.cnblogs.com/pinard/p/7160330.html word2vector 训练词向量时采用霍夫曼树来代替softmax,这里先看一下什么是霍夫曼树? 过一个案例来学习一棵霍夫曼树是怎么建立起来的 说总共有6个节点(a, b, c, d, e, f, g 阅读全文

posted @ 2019-08-28 22:16 海阔心 阅读(500) 评论(0) 推荐(0)

keras BatchNormalization 之坑
摘要:任务简述:最近做一个图像分类的任务, 一开始拿vgg跑一个baseline,输出看起来很正常: 随后,我尝试其他的一些经典的模型架构,比如resnet50, xception,但训练输出显示明显异常: val_loss 一直乱蹦,val_acc基本不发生变化。 检查了输入数据没发现问题,因此怀疑是网 阅读全文

posted @ 2019-08-27 18:02 海阔心 阅读(14098) 评论(4) 推荐(1)

深度学习优化性能(转载)
摘要:转载自 https://blog.csdn.net/qq_16234613/article/details/79596609 注意1、调参看验证集。trainset loss通常能够一直降低,但validation set loss在经过一段降低期后会开始逐渐上升,此时模型开始在训练集上过拟合。2、 阅读全文

posted @ 2019-08-23 11:57 海阔心 阅读(1097) 评论(0) 推荐(1)

CS224--1:语言模型和词向量
摘要:参考: https://www.cnblogs.com/pinard/p/7243513.html https://blog.csdn.net/cindy_1102/article/details/88079703 http://web.stanford.edu/class/cs224n/readi 阅读全文

posted @ 2019-08-23 00:54 海阔心 阅读(330) 评论(0) 推荐(1)

导航