03 2022 档案

摘要:转置卷积可以用来增大输入的高宽,算是对卷积的反卷?并不是。 转置卷积本质上还是一个卷积,它只是与卷积在形状上是相反的,但是数值不是; 卷积的逆运算是反卷积,反卷积的输入和输出与卷积的输出和输入相同; 反卷积是数学上的概念,计算机领域但凡提到“反卷积神经网络”指的都是用转置卷积,因为反卷积在机器学习领 阅读全文
posted @ 2022-03-30 21:51 爱和九九 阅读(212) 评论(0) 推荐(0) 编辑
摘要:R-CNN:物体检测的奠基性工作 其实就是在CNN的基础上,加了一个RoI池化层,(region of interest,兴趣区域)。 给定一个锚框,将锚框均匀分割成nxm块,输出每一块的最大值,这样就能总是输出nm个值。 (当然不可能一直均匀,肯定有不均匀的时候,一块比一块多一些很正常) 这样就可 阅读全文
posted @ 2022-03-21 22:02 爱和九九 阅读(259) 评论(0) 推荐(0) 编辑
摘要:concatenate([a1, a2, …], axis=0) 这是numpy里一个非常方便的数组拼接函数,也就是说,传入n个数组在中括号中,即可得到一个这些数组拼接好的新的大数组;axis=0表示从行方向上拼接,=1表示从列方向上拼接,如果是高维以此类推。 但是,今天遇到一个新的用法,如exam 阅读全文
posted @ 2022-03-21 15:45 爱和九九 阅读(2001) 评论(0) 推荐(0) 编辑
摘要:原视频地址:https://www.bilibili.com/video/BV13D4y1Q7RS?from=search&seid=9311985917721407930&spm_id_from=333.337.0.0 content 1、命令行 2、常用语句 3、矩阵 4、rand随机数 5、元 阅读全文
posted @ 2022-03-15 20:38 爱和九九 阅读(278) 评论(0) 推荐(0) 编辑
摘要:微调:不是调参,而是将一个已经训练好的网络,用于另一个数据集,类似迁移学习吧。 一个神经网络一般分成2块——特征抽取和线性分类器 微调的效果在“源数据集远远大于目标数据集的时候”效果很好。 底层的参数更加通用,而高层的参数更与数据集相关,因此在微调的时候可以固定底层的参数。 目标检测的常用算法 区域 阅读全文
posted @ 2022-03-15 15:11 爱和九九 阅读(124) 评论(0) 推荐(0) 编辑
摘要:因为学科的GPU集群只能用ssh协议登录,Xshell当然没有问题,但是Xftp没有ssh协议,所以找到了用Xshell给Xftp开通代理的方法,记下来记下来。 原文链接:https://www.cnblogs.com/queenz-852/p/13051523.html 服务器只能使用ssh登录, 阅读全文
posted @ 2022-03-14 14:34 爱和九九 阅读(336) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示