摘要: 今天发现一个怪现象,在训练keras时,发现不使用GPU进行计算,而是采用CPU进行计算,导致计算速度很慢。 用如下代码可检测tensorflow的能使用设备情况: 可用设备为: 原来只有一个CPU设备可用了。于是检查下tensorflow的版本情况: 各应用版本为: 原来我升级了tensorflo 阅读全文
posted @ 2018-09-04 11:00 可可心心 阅读(66505) 评论(2) 推荐(1) 编辑
摘要: 我们用keras训练模型后,通常保存的模型格式类型为hdf5格式,也就是.h5文件。 但如果我们想要移植到移动端,特别是基于tensorflow支持的移动端,那就需要转换成tflite格式。 如何转换呢?在tensorflow1.9及以上版本,支持通过命令行方式方便进行转换: 其他方式可以参见 ht 阅读全文
posted @ 2018-08-31 10:43 可可心心 阅读(3495) 评论(0) 推荐(0) 编辑
摘要: 我们在构建自己的神经网络模型时,往往会基于预编译模型上进行迁移学习。但不同的训练数据、不同的场景下,各个模型表现不一,需要投入大量的精力进行调参,耗费相当多的时间才能得到自己满意的模型。 而谷歌近期推出了AutoML,可以帮助人们在给定数据下自动找寻最优网络模型,可谓让不是专业的人也可以轻松构建合适 阅读全文
posted @ 2018-08-29 12:11 可可心心 阅读(12906) 评论(15) 推荐(3) 编辑
摘要: 问题来源于使用了 keras.utils.plot_model,报错内容为: 第一反应是pip3 install graphviz,但安装完后依然不好使。 后来查官网可以使用apt install graphviz,问题解决。 阅读全文
posted @ 2018-08-29 09:13 可可心心 阅读(13476) 评论(1) 推荐(1) 编辑
摘要: 本文的keras后台为tensorflow,介绍如何利用预编译的模型进行迁移学习,以训练和识别自己的图片集。 官网 https://keras.io/applications/ 已经介绍了各个基于ImageNet的预编译模型,对于我们来说,既可以直接为我所用进行图片识别,也可在其基础上进行迁移学习, 阅读全文
posted @ 2018-08-28 10:27 可可心心 阅读(8790) 评论(1) 推荐(1) 编辑
摘要: 不用惊慌,再试一次。估计当时GPU内存可分配不足,可手动结束所有python程序后释放相关GPU内存,或者重新运行一次终端 阅读全文
posted @ 2018-08-24 17:42 可可心心 阅读(5619) 评论(0) 推荐(0) 编辑
摘要: 最近在Ubuntu 18.4上安装Nvidia显卡后,显卡似乎总是不能完全兼容。 第一次出现问题时,是登录账号后,发现系统采用了默认显卡驱动,而已装过的显卡驱动则有损坏导致无法使用。 第二次出现问题时,则是在开机启动后,界面出现了 /dev/sda2 clean 和 /dev/sda2 recove 阅读全文
posted @ 2018-08-08 11:18 可可心心 阅读(34040) 评论(1) 推荐(0) 编辑
摘要: tensorflow目前已经升级至r1.10版本。在之前的深度学习中,我是在MAC的虚拟机上跑CPU版本的tensorflow程序,当数据量变大后,tensorflow跑的非常慢,在内存不足情况下,又容易造成系统崩溃(虚拟机走的是windows7)。 为了后续的深度学习,不得已,我在京东买了一部组装 阅读全文
posted @ 2018-07-20 17:14 可可心心 阅读(14830) 评论(1) 推荐(0) 编辑
摘要: 使用vi编辑,输入命令: :%s/^M/\r/g 用来把^M换成回车 注意的是^M要使用CTRL-V CTRL-M生成,而不是直接键入^M 阅读全文
posted @ 2018-01-25 10:21 可可心心 阅读(476) 评论(0) 推荐(0) 编辑
摘要: 引自 https://www.cnblogs.com/hisunhyx/p/5028391.html 3.X是这样的 HttpClient client=new DefaultHttpClient(); client.setConnectionTimeout(30000); client.setTi 阅读全文
posted @ 2017-11-24 15:31 可可心心 阅读(3005) 评论(1) 推荐(1) 编辑