1 2 3 4 5 ··· 8 下一页
摘要: "github博客传送门" "csdn博客传送门" 先创建一个可操作的DataFrame pandas的一种数据结构 输出是这样的: | | name | data | one | two | three | four | | | | | | | | | | a | abc | 农业银行 | 1 | 阅读全文
posted @ 2019-07-10 21:51 账号 阅读(325) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" 使用md5删除重复文件思路和本帖一样 首先遍历需要去重文件夹下的所有文件 然后生成每个文件md5码的同时 和集合中的md5码比较 如md5码不存在,则进行保存.如存在,则不进行保存 最后保存路径的文件 则是不重复的文件 c print_r('点个赞 阅读全文
posted @ 2019-06-26 20:01 账号 阅读(966) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" Keras保存为可部署的pb格式 加载已训练好的.h5格式的keras模型 传入如下定义好的export_savedmodel()方法内即可成功保存 Tensorflow保存为可部署的pb格式 1. 在tensorflow绘图的情况下,使用tf.s 阅读全文
posted @ 2019-05-20 21:22 账号 阅读(3616) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" Keras模型保存简介 model.save() model.save_weights() model.to_json() model.to_yaml() 现在我们来说说这四种保存模型的联系与区别 |项目|是否保存模型结构|是否保存模型权重|是否能 阅读全文
posted @ 2019-04-21 19:08 账号 阅读(11047) 评论(7) 推荐(3) 编辑
摘要: "github博客传送门" "csdn博客传送门" 1. 加载词嵌入矩阵(一般情况为字典形式 {词0:300维的向量, 词1:300维的向量, 词2:300维的向量...}) 2. 加载任务数据(一般情况为字符串形式 "我喜欢编程" 或者 "I love play computer") 3. 对加载 阅读全文
posted @ 2019-03-19 20:08 账号 阅读(922) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" 整个部署的项目结构: 首先保存(keras或tensorflow)网络模型为.h5格式 有了模型.h5格式之后,导出模型为可以部署的结构: 执行完上述代码之后,没出错的情况下就会生成以下可以部署的文件 接着我们启动TensorFlow Servin 阅读全文
posted @ 2019-03-10 23:05 账号 阅读(1022) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" 常用命令 命令 | 用途 | docker pull | 获取image docker build | 创建image docker images | 列出image docker run | 运行container docker ps | 列出c 阅读全文
posted @ 2019-02-26 21:01 账号 阅读(335) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" ==RCNN== 1、生成候选区域 使用Selective Search(选择性搜索)方法对一张图像生成约2000 3000个候选区域,基本思路如下: (1)使用一种过分割手段,将图像分割成小区域 (2)查看现有小区域,合并可能性最高的两个区域,重 阅读全文
posted @ 2019-01-06 13:29 账号 阅读(962) 评论(0) 推荐(1) 编辑
摘要: "github博客传送门" "csdn博客传送门" 参考: "https://my.oschina.net/u/876354/blog/1797489" LeNet 1. C1层(卷积层):6@28×28 (1)特征图大小 (32 5+1)×(32 5+1)= 28×28 (2)参数个数 5×5+1 阅读全文
posted @ 2019-01-06 13:23 账号 阅读(2600) 评论(0) 推荐(0) 编辑
摘要: "github博客传送门" "csdn博客传送门" 神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的? 1. 非线性: 即导数不是常数。这个条件是多层神经网络的基础,保证多层网络不退化成单层线性网络。这也是激活函数的意义所在。 2. 几乎处处可微: 阅读全文
posted @ 2018-12-26 19:30 账号 阅读(1545) 评论(0) 推荐(0) 编辑
1 2 3 4 5 ··· 8 下一页