上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 23 下一页
摘要: Counter()方法 计数器,返回字典,会同时去重,文本处理常用 阅读全文
posted @ 2017-12-15 15:05 叠加态的猫 阅读(373) 评论(0) 推荐(0) 编辑
摘要: 3*3的卷积核就是好系列 阅读全文
posted @ 2017-12-14 10:14 叠加态的猫 阅读(923) 评论(0) 推荐(1) 编辑
摘要: Relu激活函数;Dropout层;重叠的最大池化;LRN层(局部响应归一化层) 阅读全文
posted @ 2017-12-11 16:14 叠加态的猫 阅读(525) 评论(0) 推荐(0) 编辑
摘要: tensorflow直接从文件中读取数据的运行方式 阅读全文
posted @ 2017-12-10 20:51 叠加态的猫 阅读(1164) 评论(0) 推荐(0) 编辑
摘要: 标准化层使用方法;L2正则化添加方法;点乘&矩阵乘;几种加法;softmax交叉熵;输出top_k准确率;获取张量尺寸;张量切片 阅读全文
posted @ 2017-12-10 16:58 叠加态的猫 阅读(1780) 评论(0) 推荐(0) 编辑
摘要: 卷积层relu激活,偏置项使用极小值初始化,防止Relu出现死亡节点; 阅读全文
posted @ 2017-12-07 15:42 叠加态的猫 阅读(506) 评论(0) 推荐(0) 编辑
摘要: 过拟合,采用dropout解决,本质是bagging方法,相当于集成学习,注意dropout训练时设置为0~1的小数,测试时设置为1,不需要关闭节点; 学习率难以设定,Adagrad等自适应学习率方法; 深层网络梯度弥散,Relu激活取代sigmoid激活,不过输出层仍然使用sigmoid激活; 对于ReLU激活函数,常用截断正态分布,避免0梯度和完全对称; 对于Softmax分类(也就是sigmoid激活),由于对0附近最敏感,所以采用全0初始权重 阅读全文
posted @ 2017-12-07 11:08 叠加态的猫 阅读(571) 评论(0) 推荐(0) 编辑
摘要: 1.xavier初始化权重方法 2.函数实参可以是class(),即实例化的类 阅读全文
posted @ 2017-12-07 09:41 叠加态的猫 阅读(1383) 评论(0) 推荐(0) 编辑
摘要: operation.run(); tensor.eval(); a = operation()操作如果op返回tensor的话a会代表tensor,否则a会代表节点本身,此时启动会话方式是有区别的。 阅读全文
posted @ 2017-12-06 23:06 叠加态的猫 阅读(1880) 评论(0) 推荐(0) 编辑
摘要: 多进程,焕发多核cpu的潜力(笑 阅读全文
posted @ 2017-12-05 10:29 叠加态的猫 阅读(1355) 评论(0) 推荐(0) 编辑
摘要: 正则化项、稀疏矩阵以及相关概念理解 阅读全文
posted @ 2017-12-04 23:53 叠加态的猫 阅读(12491) 评论(1) 推荐(1) 编辑
摘要: 1,__getattr__()特殊方法 2,self的认识 阅读全文
posted @ 2017-12-04 20:38 叠加态的猫 阅读(4196) 评论(0) 推荐(0) 编辑
摘要: 常用库介绍之Json 阅读全文
posted @ 2017-11-26 10:40 叠加态的猫 阅读(390) 评论(0) 推荐(0) 编辑
摘要: 常用库介绍之pickle阅读全文 阅读全文
posted @ 2017-11-26 10:25 叠加态的猫 阅读(442) 评论(0) 推荐(0) 编辑
摘要: 正则表达式使用小记 阅读全文
posted @ 2017-11-26 10:11 叠加态的猫 阅读(377) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16 17 18 19 20 ··· 23 下一页