12 2019 档案

摘要:https://blog.csdn.net/loveliuzz/article/details/81363272 https://www.codeleading.com/article/4987820240/ https://github.com/davidsandberg/facenet 阅读全文
posted @ 2019-12-26 09:26 牧马人夏峥 阅读(142) 评论(0) 推荐(0) 编辑
摘要:arg_scope 主要为一些操作提供默认参数,参考https://zhuanlan.zhihu.com/p/33848199 TensorArray 具有动态size的array,比如在while_loop里,需要一个array来保存结果,参考 这个例子https://pchanda.github 阅读全文
posted @ 2019-12-25 17:03 牧马人夏峥 阅读(150) 评论(0) 推荐(0) 编辑
摘要:创建N个线程,每个线程去取一个任务,剩下的任务等待(与此对应的,是有一个主线程,然后分配任务) 具体参考https://blog.csdn.net/wudiazu/article/details/80925692 一个常见的应用是,我们在项目中,有时候需要去保留图片,IO操作需要耗费时间,这时候就可 阅读全文
posted @ 2019-12-24 10:31 牧马人夏峥 阅读(644) 评论(0) 推荐(0) 编辑
摘要:from apscheduler.schedulers.background import BackgroundScheduler def update(): pass scheduler = BackgroundScheduler() scheduler.add_job(update, 'interval', max_instances=10, seconds=10) sche... 阅读全文
posted @ 2019-12-24 09:59 牧马人夏峥 阅读(103) 评论(0) 推荐(0) 编辑
摘要:图像分类的一个trick,推导可参考这位博主https://leimao.github.io/blog/Label-Smoothing/ 知乎上的讨论https://www.zhihu.com/question/65339831,有位博主用代码给出了一个直观的体验: label smooth是如何改 阅读全文
posted @ 2019-12-19 10:32 牧马人夏峥 阅读(1456) 评论(0) 推荐(0) 编辑
摘要:1、堆(heap),动态分配的内存区域,分配之后需手工释放(new, delete, malloc, free) 这种方式需要分配内存,释放内存,因此可能会造成内存泄露,或者内存碎片的问题。 2、栈(stack),函数调用过程中,产生的本地变量和调用的数据区域 分配、释放简单,只需要移动指针即可;后 阅读全文
posted @ 2019-12-15 10:33 牧马人夏峥 阅读(771) 评论(0) 推荐(0) 编辑
摘要:1、需要加上如下设置,否则转换前后输出可能不一致,这个主要针对dropout、BN层训练测试不一致 2、outputs而非output,否则会导致转换后无法 batch inference 阅读全文
posted @ 2019-12-11 14:29 牧马人夏峥 阅读(2670) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/xv1356027897/article/details/80039615 阅读全文
posted @ 2019-12-10 10:23 牧马人夏峥 阅读(533) 评论(0) 推荐(0) 编辑
摘要:https://www.zhihu.com/question/356551927/answer/919612766 知乎上看到的,不错 阅读全文
posted @ 2019-12-08 10:42 牧马人夏峥 阅读(109) 评论(0) 推荐(0) 编辑
摘要:使用multi_gpu_model即可。观察了一下GPU的利用率,非常的低,大部分时候都是0,估计在相互等待,同步更新模型; 当然了,使用多GPU最明显的好处是可以使用更大的batch size https://www.jianshu.com/p/d57595dac5a9 https://keras 阅读全文
posted @ 2019-12-05 10:21 牧马人夏峥 阅读(1228) 评论(0) 推荐(0) 编辑
摘要:最近在做一个鉴黄的项目,数据量比较大,有几百个G,一次性加入内存再去训练模青型是不现实的。 查阅资料发现keras中可以用两种方法解决,一是将数据转为tfrecord,但转换后数据大小会方法不好;另外一种就是利用generator,先一次加入所有数据的路径,然后每个batch的读入 参考:https 阅读全文
posted @ 2019-12-04 17:55 牧马人夏峥 阅读(1761) 评论(0) 推荐(0) 编辑
摘要:https://medium.com/analytics-vidhya/is-relu-dead-27943b50102 1、使用relu作为激活函数时,因其在输入小于0时,输出为0,所以可能会造成dead relu,使得输出和梯度都为0; 2、上述文章中使用了多种方式尝试去改善,包括更多层,更多数 阅读全文
posted @ 2019-12-01 22:25 牧马人夏峥 阅读(186) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示