上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 18 下一页
摘要: 阅读全文
posted @ 2020-05-30 17:24 月夜_1 阅读(294) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-05-30 12:12 月夜_1 阅读(345) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-05-30 10:30 月夜_1 阅读(230) 评论(0) 推荐(0) 编辑
摘要: 举例 对象:标识(ID)对应内存块的 a=3,是把“3”对应的内存块的地址赋给a变量 阅读全文
posted @ 2020-05-30 10:03 月夜_1 阅读(153) 评论(0) 推荐(0) 编辑
摘要: 1.命令行模式中 2. 学习方法:守破离 《程序员修炼手册》 http://www.bjsxt.com/xiulian.html 抓大放小,重点在于形成体系,抓住主要的点,不在某个点纠结过多(太难理解就跳过)。 阅读全文
posted @ 2020-05-29 20:22 月夜_1 阅读(217) 评论(0) 推荐(0) 编辑
摘要: 1.获取中间层输出 keras中获取层输出shape的方法汇总(主要看如何取出中间层的输出) https://blog.csdn.net/C_chuxin/article/details/85237690 Keras中的model.get_layer()的使用方法 https://blog.csdn 阅读全文
posted @ 2020-05-24 00:38 月夜_1 阅读(1530) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/wchzh2015/article/details/93883771 现在很多网络结构都是一个命名+数字,比如(ResNet18),数字代表的是网络的深度,也就是说ResNet18 网络就是18层的吗?其实这里的18指定的是带有权重的 18层,包括卷积层和 阅读全文
posted @ 2020-05-23 12:21 月夜_1 阅读(5977) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/IvyWong/p/9916791.html 阅读全文
posted @ 2020-05-22 12:21 月夜_1 阅读(2221) 评论(0) 推荐(0) 编辑
摘要: http://www.atyun.com/2257.html Adam优化算法是一种对随机梯度下降法的扩展,最近在计算机视觉和自然语言处理中广泛应用于深度学习应用。在引入该算法时,OpenAI的Diederik Kingma和多伦多大学的Jimmy Ba在他们的2015 ICLR发表了一篇名为“Ad 阅读全文
posted @ 2020-05-22 01:00 月夜_1 阅读(3474) 评论(2) 推荐(0) 编辑
摘要: #GPU按需分配,解决 import tensorflow as tf import keras config = tf.ConfigProto() config.gpu_options.allow_growth = True keras.backend.tensorflow_backend.set 阅读全文
posted @ 2020-05-07 18:11 月夜_1 阅读(1227) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 18 下一页