03 2019 档案

【转载】 深度学习总结:用pytorch做dropout和Batch Normalization时需要注意的地方,用tensorflow做dropout和BN时需要注意的地方,
摘要:原文地址: https://blog.csdn.net/weixin_40759186/article/details/87547795 用pytorch做dropout和BN时需要注意的地方 pytorch做dropout: 就是train的时候使用dropout,训练的时候不使用dropout, 阅读全文

posted @ 2019-03-31 19:36 Angry_Panda 阅读(7788) 评论(0) 推荐(0)

【转载】 pytorch自定义网络结构不进行参数初始化会怎样?
摘要:原文地址: https://blog.csdn.net/u011668104/article/details/81670544 答案:不怕不怕,pytorch自己默认有初始化 证据如下: torch.nn.Conv2d的参数初始化 https://pytorch.org/docs/stable/_m 阅读全文

posted @ 2019-03-31 15:57 Angry_Panda 阅读(1602) 评论(0) 推荐(0)

【转载】 opencv, PIL.Image的彩色图片维度 && caffe和pytorch的矩阵维度
摘要:原文地址: https://blog.csdn.net/u011668104/article/details/82718375 opencv读取彩色图片:BGR,(h,w,c) 例如: cv2.imread(‘test.jpg’) Skimage读彩色图片:RGB,(h,w,c) 例如: from 阅读全文

posted @ 2019-03-31 15:06 Angry_Panda 阅读(1555) 评论(0) 推荐(0)

【转载】 Caffe BN+Scale层和Pytorch BN层的对比
摘要:原文地址: https://blog.csdn.net/elysion122/article/details/79628587 因为最近在将一个caffe的model移植到pytorch上,发现移植过去就没法收敛了,因此专门研究了一些细节。 batch normalization的公式如下: caf 阅读全文

posted @ 2019-03-31 10:03 Angry_Panda 阅读(1562) 评论(0) 推荐(0)

【转载】 Pytorch中的学习率调整lr_scheduler,ReduceLROnPlateau
摘要:原文地址: https://blog.csdn.net/happyday_d/article/details/85267561 Pytorch中的学习率调整:lr_scheduler,ReduceLROnPlateau torch.optim.lr_scheduler:该方法中提供了多种基于epoc 阅读全文

posted @ 2019-03-31 09:50 Angry_Panda 阅读(12108) 评论(0) 推荐(0)

【转载】 Pytorch(0)降低学习率torch.optim.lr_scheduler.ReduceLROnPlateau类
摘要:原文地址: https://blog.csdn.net/weixin_40100431/article/details/84311430 当网络的评价指标不在提升的时候,可以通过降低网络的学习率来提高网络性能。所使用的类 其中 optimer指的是网络的优化器 mode (str) ,可选择‘min 阅读全文

posted @ 2019-03-31 09:29 Angry_Panda 阅读(5441) 评论(0) 推荐(1)

【转载】 PyTorch学习之六个学习率调整策略
摘要:原文地址: https://blog.csdn.net/shanglianlm/article/details/85143614 PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是 1 等间隔调整学习率 St 阅读全文

posted @ 2019-03-30 22:44 Angry_Panda 阅读(6168) 评论(0) 推荐(1)

【转载】 Pytorch(1) pytorch中的BN层的注意事项
摘要:原文地址: https://blog.csdn.net/weixin_40100431/article/details/84349470 最近修改一个代码的时候,当使用网络进行推理的时候,发现每次更改测试集的batch size大小竟然会导致推理结果不同,甚至产生错误结果,后来发现在网络中定义了BN 阅读全文

posted @ 2019-03-30 20:12 Angry_Panda 阅读(3086) 评论(0) 推荐(0)

【转载】 【caffe转向pytorch】caffe的BN层+scale层=pytorch的BN层
摘要:原文地址: https://blog.csdn.net/u011668104/article/details/81532592 caffe里面用BN层的时候通常后面接一下scale层,原因如下:caffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它 阅读全文

posted @ 2019-03-28 13:40 Angry_Panda 阅读(637) 评论(0) 推荐(0)

【转载】 OpenCV ——双线性插值(Bilinear interpolation)
摘要:原文地址: https://www.cnblogs.com/yssongest/p/5303151.html 1,原理 在图像的仿射变换中,很多地方需要用到插值运算,常见的插值运算包括最邻近插值,双线性插值,双三次插值,兰索思插值等方法,OpenCV提供了很多方法,其中,双线性插值由于折中的插值效果 阅读全文

posted @ 2019-03-28 13:29 Angry_Panda 阅读(1175) 评论(0) 推荐(0)

【转载】 一个老博士的经验顺口溜! 研究生生活的精华总结!
摘要:原文地址: http://www.sohu.com/a/217503971_765136 ps: 经典。 读了三年多博士了,有一些经验。大家分享。“口溜”编的不太顺,各位见量吧。 1、文献阅读 先看两篇综述,搞清过去未来; 再看具体文章,搞清技术方法; 阅读摘要为主,全文只能为辅; 书籍大多没用,别 阅读全文

posted @ 2019-03-24 22:50 Angry_Panda 阅读(482) 评论(0) 推荐(0)

【转载】 研究生生活总结(2):从技术到研究再到技术的过程
摘要:原文地址: https://www.xuebuyuan.com/214437.html 2013年01月21日 前几天写了关于研究生当助教的那些事,今天来说说本科和研究生期间在技术和学术上的感受。其实这个题目有点伪,因为其中介绍了大量的本科时的东西。 大学之前,对电脑的认识很少,初中和高中微机课接触 阅读全文

posted @ 2019-03-24 21:12 Angry_Panda 阅读(163) 评论(0) 推荐(0)

【转载】 研究生生活总结(1):当助教的那些人和事
摘要:原文地址: https://www.xuebuyuan.com/214444.html?mobile=0 2013年02月12日 答完辩了,研究生班级的散伙饭吃了,论文也装订了,就差实验室的散伙饭和报退了,准备下周的这个时候离开大连了。昨天公司的导师还发来短信问我什么时候回去。琢磨了一下决定21号走 阅读全文

posted @ 2019-03-24 21:11 Angry_Panda 阅读(373) 评论(0) 推荐(0)

【转载】 如何看待 2019 年 CS PhD 现扎堆申请且大部分为 AI 方向?未来几年 AI 泡沫会破裂吗?
摘要:原贴地址: https://www.zhihu.com/question/316135639 作为一个 AI 方向的在读博士生,实在是过的蛮闹心,无意中逛知乎发现了这个帖子,发现很适合现在的自己,于是转载到这里,以作收藏。 今年刚渡过了 CS PhD 的申请狂潮(本人是14级的学生),顺便回答一下吧 阅读全文

posted @ 2019-03-23 11:36 Angry_Panda 阅读(1695) 评论(0) 推荐(0)

【转载】 深度强化学习处理cartpole为什么reward很难超过200?
摘要:原贴地址: https://www.zhihu.com/question/266493753 一直在看强化学习方面的内容,cartpole是最简单的入门实验环境,最原始的评判标准是连续100次episode的奖励均值在195以上即可认定是到达最优,说明此问题得以解决,(但是有很多的研究是没有采用这个 阅读全文

posted @ 2019-03-23 07:49 Angry_Panda 阅读(2054) 评论(0) 推荐(0)

【转载】 强化学习中 采用 【首次访问的蒙特卡洛预测法】 的算法描述
摘要:举例:用蒙特卡罗方法来学习状态值函数Vπ(s)。如上所述,估计Vπ(s)是对于所有到达过该状态的回报取平均值。这里又分为first-visit MC methods和every-visit MC methods。这里,我们只考虑first MC methods,即在一个episode内,我们只记录s 阅读全文

posted @ 2019-03-21 21:41 Angry_Panda 阅读(1111) 评论(0) 推荐(0)

【转载】 混合智能
摘要:原文地址: https://blog.csdn.net/qq_25551743/article/details/82348856 一谈起人工智能,总是围绕着机器学习谈起,我这里提一个概念:混合智能。什么意思呢?混合智能识把机器学习和传统的算法结合的一种智能。举个例子:图片中的文字识别,注意这里不是单 阅读全文

posted @ 2019-03-21 14:15 Angry_Panda 阅读(281) 评论(1) 推荐(0)

【转载】 DeepMind用ReinforcementLearning玩游戏
摘要:原文地址: https://blog.csdn.net/wishchin/article/details/42425145 原文 : http://dataunion.org/?p=639 1.引言 说到机器学习最酷的分支,非Deep learning和Reinforcement learning莫 阅读全文

posted @ 2019-03-19 11:54 Angry_Panda 阅读(375) 评论(0) 推荐(0)

【转载】 大规模寻路算法优化
摘要:原文地址: http://gameinstitute.qq.com/article/detail/10043 最近在学A* 算法, 在网上看到了这么一个博客,感觉有些意思,虽然看不太懂,但是感觉这个idea还是很不错的,最主要的是出来没有见过这么个法子来处理问题的,这个 分层A* 算法有种要人眼前一 阅读全文

posted @ 2019-03-13 19:52 Angry_Panda 阅读(2403) 评论(7) 推荐(1)

【转载】 A* 寻路算法 (个人认为最详细,最通俗易懂的一个版本)
摘要:原文地址: http://www.cppblog.com/christanxw/archive/2006/04/07/5126.html 原文地址: http://www.gamedev.net/reference/articles/article2003.asp 概述 虽然掌握了 A* 算法的人认 阅读全文

posted @ 2019-03-13 18:23 Angry_Panda 阅读(3581) 评论(0) 推荐(2)

【转载】 2017秋招小结
摘要:最近看到一篇博客,感觉还是很不错的,虽然我现在又出现回到学校继续读书,但是毕竟经历过工作和各种面试、校招、打比赛,虽然水平平平,能力不济,但是当年的日子还是蛮值得怀念的。于是网上看到了这一片博客后颇有感触,当年找完工作也本想着写一些面试的心得、经历的,现在想想这个想法也只是停留在想的阶段了,所以看到 阅读全文

posted @ 2019-03-13 13:58 Angry_Panda 阅读(299) 评论(0) 推荐(0)

启发式搜索A-Star算法 【寻找 最短路径 算法】【地理几何位置 可利用的情况】
摘要:在处理最短路径问题时,有一种启发式算法是我们应该了解的,由于其有着优秀的探索效率在各自现实项目中多有应用,它就是 A-star 算法,或 A* 算法。 个人观点: A* 算法并不保证找到的路径一定是最短路径,但该方法由于运算效率高所以使用较广。如果出发点和终点之间存在可到达路径,则使用A*算法必然会 阅读全文

posted @ 2019-03-12 11:17 Angry_Panda 阅读(2685) 评论(0) 推荐(0)

强化学习基础算法入门 【PPT】
摘要:该部分内容来自于定期的小组讨论,源于师弟的汇报。 阅读全文

posted @ 2019-03-10 16:28 Angry_Panda 阅读(691) 评论(0) 推荐(0)

深度强化学习介绍 【PPT】 Human-level control through deep reinforcement learning (DQN)
摘要:这个是平时在实验室讲reinforcement learning 的时候用到PPT, 交期末作业、汇报都是一直用的这个,觉得比较不错,保存一下,也为分享,最早该PPT源于师弟汇报所做。 阅读全文

posted @ 2019-03-10 15:31 Angry_Panda 阅读(2270) 评论(0) 推荐(1)

【论文 PPT】 【转】Human-level control through deep reinforcement learning(DQN)
摘要:最近在学习强化学习的东西,在网上发现了一个关于DQN讲解的PPT,感觉很是不错,这里做下记录,具体出处不详。 阅读全文

posted @ 2019-03-10 13:15 Angry_Panda 阅读(760) 评论(0) 推荐(0)

强化学习中的无模型 基于值函数的 Q-Learning 和 Sarsa 学习
摘要:强化学习基础: 注: 在强化学习中 奖励函数和状态转移函数都是未知的,之所以有已知模型的强化学习解法是指使用采样估计的方式估计出奖励函数和状态转移函数,然后将强化学习问题转换为可以使用动态规划求解的已知模型问题。 强化学习问题由于采用了MDP数学形式来构建的,由此贝尔曼方程式是我们最常用的,如下: 阅读全文

posted @ 2019-03-06 22:11 Angry_Panda 阅读(2073) 评论(0) 推荐(0)

读《游戏使人上瘾的因素》有感
摘要:今天在博客园上看了两篇博客,感觉还是蛮受启发,学习到了不少东西,这两篇博客分别是: A: 佳文赏析:《游戏使人上瘾的因素》 B: 从事游戏行业也有10年,让我来说下游戏的本质,为什么上瘾 其实是在博客园的首页上看到了A博客, A博客批评B博客,乍一感觉是A在说B是乱说,细一看感觉这两篇博客的出发点是 阅读全文

posted @ 2019-03-01 16:18 Angry_Panda 阅读(237) 评论(0) 推荐(0)

实验室2019年3月第一次会议(新学期工作布置及动员会)
摘要:这是今天中午开大会的记录,也是记录实验室生活的一些点滴吧,而且这也确实不易,因为毕竟一年也见不到几次老师,今天有幸得见,真心难得,于此同时也不禁感慨现如今学校生活的变态,学术环境的畸形。这学期要求交两次小论文,感觉算是小压力不过想想也还好,毕竟呆了快二年,做些事情还是好的,虽然被老板罚了一年的冷板凳 阅读全文

posted @ 2019-03-01 13:34 Angry_Panda 阅读(209) 评论(0) 推荐(0)

导航