摘要:原文地址: https://blog.csdn.net/weixin_40759186/article/details/87547795 用pytorch做dropout和BN时需要注意的地方 pytorch做dropout: 就是train的时候使用dropout,训练的时候不使用dropout,
阅读全文
摘要:原文地址: https://blog.csdn.net/u011668104/article/details/81670544 答案:不怕不怕,pytorch自己默认有初始化 证据如下: torch.nn.Conv2d的参数初始化 https://pytorch.org/docs/stable/_m
阅读全文
摘要:原文地址: https://blog.csdn.net/u011668104/article/details/82718375 opencv读取彩色图片:BGR,(h,w,c) 例如: cv2.imread(‘test.jpg’) Skimage读彩色图片:RGB,(h,w,c) 例如: from
阅读全文
摘要:原文地址: https://blog.csdn.net/elysion122/article/details/79628587 因为最近在将一个caffe的model移植到pytorch上,发现移植过去就没法收敛了,因此专门研究了一些细节。 batch normalization的公式如下: caf
阅读全文
摘要:原文地址: https://blog.csdn.net/happyday_d/article/details/85267561 Pytorch中的学习率调整:lr_scheduler,ReduceLROnPlateau torch.optim.lr_scheduler:该方法中提供了多种基于epoc
阅读全文
摘要:原文地址: https://blog.csdn.net/weixin_40100431/article/details/84311430 当网络的评价指标不在提升的时候,可以通过降低网络的学习率来提高网络性能。所使用的类 其中 optimer指的是网络的优化器 mode (str) ,可选择‘min
阅读全文
摘要:原文地址: https://blog.csdn.net/shanglianlm/article/details/85143614 PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是 1 等间隔调整学习率 St
阅读全文
摘要:原文地址: https://blog.csdn.net/weixin_40100431/article/details/84349470 最近修改一个代码的时候,当使用网络进行推理的时候,发现每次更改测试集的batch size大小竟然会导致推理结果不同,甚至产生错误结果,后来发现在网络中定义了BN
阅读全文
摘要:原文地址: https://blog.csdn.net/u011668104/article/details/81532592 caffe里面用BN层的时候通常后面接一下scale层,原因如下:caffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它
阅读全文
摘要:原文地址: https://www.cnblogs.com/yssongest/p/5303151.html 1,原理 在图像的仿射变换中,很多地方需要用到插值运算,常见的插值运算包括最邻近插值,双线性插值,双三次插值,兰索思插值等方法,OpenCV提供了很多方法,其中,双线性插值由于折中的插值效果
阅读全文
摘要:原文地址: http://www.sohu.com/a/217503971_765136 ps: 经典。 读了三年多博士了,有一些经验。大家分享。“口溜”编的不太顺,各位见量吧。 1、文献阅读 先看两篇综述,搞清过去未来; 再看具体文章,搞清技术方法; 阅读摘要为主,全文只能为辅; 书籍大多没用,别
阅读全文
摘要:原文地址: https://www.xuebuyuan.com/214437.html 2013年01月21日 前几天写了关于研究生当助教的那些事,今天来说说本科和研究生期间在技术和学术上的感受。其实这个题目有点伪,因为其中介绍了大量的本科时的东西。 大学之前,对电脑的认识很少,初中和高中微机课接触
阅读全文
摘要:原文地址: https://www.xuebuyuan.com/214444.html?mobile=0 2013年02月12日 答完辩了,研究生班级的散伙饭吃了,论文也装订了,就差实验室的散伙饭和报退了,准备下周的这个时候离开大连了。昨天公司的导师还发来短信问我什么时候回去。琢磨了一下决定21号走
阅读全文
摘要:原贴地址: https://www.zhihu.com/question/316135639 作为一个 AI 方向的在读博士生,实在是过的蛮闹心,无意中逛知乎发现了这个帖子,发现很适合现在的自己,于是转载到这里,以作收藏。 今年刚渡过了 CS PhD 的申请狂潮(本人是14级的学生),顺便回答一下吧
阅读全文
摘要:原贴地址: https://www.zhihu.com/question/266493753 一直在看强化学习方面的内容,cartpole是最简单的入门实验环境,最原始的评判标准是连续100次episode的奖励均值在195以上即可认定是到达最优,说明此问题得以解决,(但是有很多的研究是没有采用这个
阅读全文
摘要:举例:用蒙特卡罗方法来学习状态值函数Vπ(s)。如上所述,估计Vπ(s)是对于所有到达过该状态的回报取平均值。这里又分为first-visit MC methods和every-visit MC methods。这里,我们只考虑first MC methods,即在一个episode内,我们只记录s
阅读全文
摘要:原文地址: https://blog.csdn.net/qq_25551743/article/details/82348856 一谈起人工智能,总是围绕着机器学习谈起,我这里提一个概念:混合智能。什么意思呢?混合智能识把机器学习和传统的算法结合的一种智能。举个例子:图片中的文字识别,注意这里不是单
阅读全文
摘要:原文地址: https://blog.csdn.net/wishchin/article/details/42425145 原文 : http://dataunion.org/?p=639 1.引言 说到机器学习最酷的分支,非Deep learning和Reinforcement learning莫
阅读全文
摘要:原文地址: http://gameinstitute.qq.com/article/detail/10043 最近在学A* 算法, 在网上看到了这么一个博客,感觉有些意思,虽然看不太懂,但是感觉这个idea还是很不错的,最主要的是出来没有见过这么个法子来处理问题的,这个 分层A* 算法有种要人眼前一
阅读全文
摘要:原文地址: http://www.cppblog.com/christanxw/archive/2006/04/07/5126.html 原文地址: http://www.gamedev.net/reference/articles/article2003.asp 概述 虽然掌握了 A* 算法的人认
阅读全文
摘要:最近看到一篇博客,感觉还是很不错的,虽然我现在又出现回到学校继续读书,但是毕竟经历过工作和各种面试、校招、打比赛,虽然水平平平,能力不济,但是当年的日子还是蛮值得怀念的。于是网上看到了这一片博客后颇有感触,当年找完工作也本想着写一些面试的心得、经历的,现在想想这个想法也只是停留在想的阶段了,所以看到
阅读全文
摘要:在处理最短路径问题时,有一种启发式算法是我们应该了解的,由于其有着优秀的探索效率在各自现实项目中多有应用,它就是 A-star 算法,或 A* 算法。 个人观点: A* 算法并不保证找到的路径一定是最短路径,但该方法由于运算效率高所以使用较广。如果出发点和终点之间存在可到达路径,则使用A*算法必然会
阅读全文
摘要:该部分内容来自于定期的小组讨论,源于师弟的汇报。
阅读全文
摘要:这个是平时在实验室讲reinforcement learning 的时候用到PPT, 交期末作业、汇报都是一直用的这个,觉得比较不错,保存一下,也为分享,最早该PPT源于师弟汇报所做。
阅读全文
摘要:最近在学习强化学习的东西,在网上发现了一个关于DQN讲解的PPT,感觉很是不错,这里做下记录,具体出处不详。
阅读全文
摘要:强化学习基础: 注: 在强化学习中 奖励函数和状态转移函数都是未知的,之所以有已知模型的强化学习解法是指使用采样估计的方式估计出奖励函数和状态转移函数,然后将强化学习问题转换为可以使用动态规划求解的已知模型问题。 强化学习问题由于采用了MDP数学形式来构建的,由此贝尔曼方程式是我们最常用的,如下:
阅读全文
摘要:今天在博客园上看了两篇博客,感觉还是蛮受启发,学习到了不少东西,这两篇博客分别是: A: 佳文赏析:《游戏使人上瘾的因素》 B: 从事游戏行业也有10年,让我来说下游戏的本质,为什么上瘾 其实是在博客园的首页上看到了A博客, A博客批评B博客,乍一感觉是A在说B是乱说,细一看感觉这两篇博客的出发点是
阅读全文
摘要:这是今天中午开大会的记录,也是记录实验室生活的一些点滴吧,而且这也确实不易,因为毕竟一年也见不到几次老师,今天有幸得见,真心难得,于此同时也不禁感慨现如今学校生活的变态,学术环境的畸形。这学期要求交两次小论文,感觉算是小压力不过想想也还好,毕竟呆了快二年,做些事情还是好的,虽然被老板罚了一年的冷板凳
阅读全文