12 2017 档案

摘要:高效二进制文件,加速文件读取 阅读全文
posted @ 2017-12-30 00:39 叠加态的猫 阅读(4017) 评论(1) 推荐(0) 编辑
摘要:Vord2Vec相关知识介绍 阅读全文
posted @ 2017-12-19 23:04 叠加态的猫 阅读(591) 评论(0) 推荐(0) 编辑
摘要:残差结构实现 阅读全文
posted @ 2017-12-18 23:05 叠加态的猫 阅读(4889) 评论(0) 推荐(0) 编辑
摘要:InceptionV3代码 阅读全文
posted @ 2017-12-18 16:35 叠加态的猫 阅读(2244) 评论(0) 推荐(0) 编辑
摘要:InceptionV3背景知识 阅读全文
posted @ 2017-12-18 16:24 叠加态的猫 阅读(1027) 评论(0) 推荐(0) 编辑
摘要:slim库简介 阅读全文
posted @ 2017-12-18 16:00 叠加态的猫 阅读(19778) 评论(0) 推荐(1) 编辑
摘要:Counter()方法 计数器,返回字典,会同时去重,文本处理常用 阅读全文
posted @ 2017-12-15 15:05 叠加态的猫 阅读(373) 评论(0) 推荐(0) 编辑
摘要:3*3的卷积核就是好系列 阅读全文
posted @ 2017-12-14 10:14 叠加态的猫 阅读(929) 评论(0) 推荐(1) 编辑
摘要:Relu激活函数;Dropout层;重叠的最大池化;LRN层(局部响应归一化层) 阅读全文
posted @ 2017-12-11 16:14 叠加态的猫 阅读(531) 评论(0) 推荐(0) 编辑
摘要:tensorflow直接从文件中读取数据的运行方式 阅读全文
posted @ 2017-12-10 20:51 叠加态的猫 阅读(1166) 评论(0) 推荐(0) 编辑
摘要:标准化层使用方法;L2正则化添加方法;点乘&矩阵乘;几种加法;softmax交叉熵;输出top_k准确率;获取张量尺寸;张量切片 阅读全文
posted @ 2017-12-10 16:58 叠加态的猫 阅读(1787) 评论(0) 推荐(0) 编辑
摘要:卷积层relu激活,偏置项使用极小值初始化,防止Relu出现死亡节点; 阅读全文
posted @ 2017-12-07 15:42 叠加态的猫 阅读(509) 评论(0) 推荐(0) 编辑
摘要:过拟合,采用dropout解决,本质是bagging方法,相当于集成学习,注意dropout训练时设置为0~1的小数,测试时设置为1,不需要关闭节点; 学习率难以设定,Adagrad等自适应学习率方法; 深层网络梯度弥散,Relu激活取代sigmoid激活,不过输出层仍然使用sigmoid激活; 对于ReLU激活函数,常用截断正态分布,避免0梯度和完全对称; 对于Softmax分类(也就是sigmoid激活),由于对0附近最敏感,所以采用全0初始权重 阅读全文
posted @ 2017-12-07 11:08 叠加态的猫 阅读(574) 评论(0) 推荐(0) 编辑
摘要:1.xavier初始化权重方法 2.函数实参可以是class(),即实例化的类 阅读全文
posted @ 2017-12-07 09:41 叠加态的猫 阅读(1390) 评论(0) 推荐(0) 编辑
摘要:operation.run(); tensor.eval(); a = operation()操作如果op返回tensor的话a会代表tensor,否则a会代表节点本身,此时启动会话方式是有区别的。 阅读全文
posted @ 2017-12-06 23:06 叠加态的猫 阅读(1884) 评论(0) 推荐(0) 编辑
摘要:多进程,焕发多核cpu的潜力(笑 阅读全文
posted @ 2017-12-05 10:29 叠加态的猫 阅读(1358) 评论(0) 推荐(0) 编辑
摘要:正则化项、稀疏矩阵以及相关概念理解 阅读全文
posted @ 2017-12-04 23:53 叠加态的猫 阅读(12611) 评论(1) 推荐(1) 编辑
摘要:1,__getattr__()特殊方法 2,self的认识 阅读全文
posted @ 2017-12-04 20:38 叠加态的猫 阅读(4198) 评论(0) 推荐(0) 编辑