会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
阿刚的代码进阶之旅
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
3
4
5
6
7
8
9
10
下一页
2019年5月6日
pytorch使用Tips
摘要: 1、构建model的时候,写前向计算forward的时候,有时候需要判断是否是在训练的过程中,可以使用self.training来判断是否是在训练的过程中,self.train是从父类nn.Module继承而来的。 2、对于prune, running_mean和running_var的处理也是重要
阅读全文
posted @ 2019-05-06 15:34 阿刚的代码进阶之旅
阅读(194)
评论(0)
推荐(0)
编辑
pytorch使用tensorboardX
摘要: 见https://www.cnblogs.com/kk17/p/10077335.html
阅读全文
posted @ 2019-05-06 08:28 阿刚的代码进阶之旅
阅读(277)
评论(0)
推荐(0)
编辑
2019年5月5日
矩阵
摘要: 在看一篇论文的时候,看到求取与矩阵正交的向量值,遇到了一些概念,记录在下面: 对于一个矩阵A: m×n,矩阵的子空间相关概念: 更为具体的介绍见:https://www.cnblogs.com/scdeng/p/3999746.html 性质介绍:https://blog.csdn.net/craz
阅读全文
posted @ 2019-05-05 09:58 阿刚的代码进阶之旅
阅读(196)
评论(0)
推荐(0)
编辑
2019年5月2日
异地住院报销
摘要: http://tv.cctv.com/2019/04/29/VIDEqBzaYKQX7Q6eGpSmO6mB190429.shtml?spm=C55924871139.PY8jbb3G6NT9.E6PGJ0LdW2yv.217
阅读全文
posted @ 2019-05-02 19:18 阿刚的代码进阶之旅
阅读(96)
评论(0)
推荐(0)
编辑
2019年4月30日
pytorch 反向梯度计算问题
摘要: 计算如下\begin{array}{l}{x_{1}=w_{1} * \text { input }} \\ {x_{2}=w_{2} * x_{1}} \\ {x_{3}=w_{3} * x_{2}}\end{array} 其中$w_{1}$,$w_{2}$,$w_{3}$是权重参数,是需要梯度的
阅读全文
posted @ 2019-04-30 21:20 阿刚的代码进阶之旅
阅读(2318)
评论(0)
推荐(0)
编辑
pytorch TensorboardX使用
摘要: 训练程序运行后,在另一个命令行窗口中使用命令: 其中runs是保存的logs记录的目录,port是本地浏览器窗口
阅读全文
posted @ 2019-04-30 15:26 阿刚的代码进阶之旅
阅读(835)
评论(0)
推荐(0)
编辑
2019年4月29日
RePr: Improved Training of Convolutional Filters
摘要: 关键点: 1、关于filter正交 将一层中的一个$k \times k \times c$的卷积核展开为$k * k * c$的向量,表示为$f$。一层中有$J_{\ell}$个卷积核,$\boldsymbol{W}_{\ell}$为一个矩阵,矩阵的行 为卷积核展开的向量,行数为卷积核数$J_{\
阅读全文
posted @ 2019-04-29 15:41 阿刚的代码进阶之旅
阅读(723)
评论(0)
推荐(0)
编辑
2019年4月27日
心理学名言
摘要: 亲密关系的构建是一个重新认识自我的过程,在这个过程中,会认识到自己很多的负面性格特点,可以说,这是一场修炼,如果成功度过一个一个的坎儿,你将会迎来一个全新的自己。
阅读全文
posted @ 2019-04-27 18:59 阿刚的代码进阶之旅
阅读(120)
评论(0)
推荐(0)
编辑
投影效应
摘要: 心理学上有一种“投影效应”,说的是人常常不自觉地把自己的心理特征,如个性、好恶、欲望、观念、情绪等移加到别人身上,认为别人也是具有同样的特点。 故事: 有一则经典的故事是这样描述的:一次苏东坡和金山寺的佛印大师在一起,苏东坡问性格憨厚一些的佛印大师:“禅师,你看我的坐姿如何?”禅师答道:“很好,像一
阅读全文
posted @ 2019-04-27 18:48 阿刚的代码进阶之旅
阅读(538)
评论(0)
推荐(0)
编辑
求和向量与中心化矩阵
摘要: 一、求和向量 所有元素等于1 的向量称为求和向量(summuing vector)。记为$\mathbf{1}=[1,1, \cdots, 1]^{\mathbf{T}}$ 。以$n=4$为例,求和向量$\mathbf{1}=[1,1, \cdots, 1]^{\mathrm{T}}$ 之所以称为求
阅读全文
posted @ 2019-04-27 18:11 阿刚的代码进阶之旅
阅读(3710)
评论(2)
推荐(3)
编辑
上一页
1
···
3
4
5
6
7
8
9
10
下一页
公告