上一页 1 2 3 4 5 6 ··· 13 下一页
摘要: 先说结论,model.state_dict()是浅拷贝,返回的参数仍然会随着网络的训练而变化。应该使用deepcopy(model.state_dict()),或将参数及时序列化到硬盘。 再讲故事,前几天在做一个模型的交叉验证训练时,通过model.state_dict()保存了每一组交叉验证模型的 阅读全文
posted @ 2019-07-26 09:33 Luke_Ye 阅读(4259) 评论(0) 推荐(1) 编辑
摘要: 当模型需要接受多个模态的数据时,往往需要设计合适的方法让他们能进行信息的融合,Joint embedding是一种较为普遍的思路,即将他们映射到同一个向量空间中,再进行融合。 向量拼接、元素级相乘、做out product得到矩阵、求和。缺点是缺乏表达能力 Multimodal Compact Bi 阅读全文
posted @ 2019-07-18 18:52 Luke_Ye 阅读(2738) 评论(0) 推荐(0) 编辑
摘要: 在Windows上使用Dataloader并设置num_workers为一个非零数字,enumerate取数据时会引发"EOFError: Ran out of input"的报错。解决方法是num_workers=0。 阅读全文
posted @ 2019-07-16 18:08 Luke_Ye 阅读(1633) 评论(2) 推荐(0) 编辑
摘要: http://poj.org/problem?id=2796 https://nanti.jisuanke.com/t/38228 背景 给定一个序列,对于任意区间,min表示区间中最小的数,sum表示区间和,求使得min*sum最大的区间或区间值。 POJ-2796中,序列的值非负,而在网络赛I题 阅读全文
posted @ 2019-04-23 12:38 Luke_Ye 阅读(299) 评论(0) 推荐(0) 编辑
摘要: Linear Discriminant Analysis(线性判别分类器)是对费舍尔的线性鉴别方法(FLD)的归纳,属于监督学习的方法。 LDA的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距 阅读全文
posted @ 2019-03-14 13:23 Luke_Ye 阅读(5228) 评论(0) 推荐(0) 编辑
摘要: KNN算法也成为k-邻近算法,其是一种通过测量特征值之间的距离来进行的分类算法。 KNN的工作原理:存在一个样本数 据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据 与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的 特征进行比较 阅读全文
posted @ 2018-12-10 15:21 Luke_Ye 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 使用adb命令 可以截取当前屏幕,并且作为stdout,传给外部。那么对于python,我们可以用如下代码获取数据流。 使用Popen创建子进程用于读取数据流。 out是当前的Popen实例,考虑到Windows接收过程中,会把\n当作\r\n写入流中,进而导致png文件打不开。 所以用replac 阅读全文
posted @ 2018-11-17 21:32 Luke_Ye 阅读(1433) 评论(0) 推荐(0) 编辑
摘要: 在resize矩阵时出现报错 很可能是矩阵未设置为float,应该在读入后转换类型 阅读全文
posted @ 2018-11-03 20:47 Luke_Ye 阅读(148) 评论(0) 推荐(0) 编辑
摘要: loss的获取 在看别人代码的时候发现都是 在想为什么不直接使用loss呢,因为pytorch使用Variable跟踪变量(4.0后合并为Tensor),也就是直接使用loss,那么pytorch认为其还在参与运算,其在一个batch后依旧存在于网络中而不是释放掉,所以资源占用会越来越大。 最新版本 阅读全文
posted @ 2018-11-01 21:45 Luke_Ye 阅读(574) 评论(0) 推荐(0) 编辑
摘要: numpy数组增加维度 比如二维灰度图片转化成三维带channel的数组 阅读全文
posted @ 2018-11-01 20:02 Luke_Ye 阅读(175) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 13 下一页