摘要: CSDN:https://blog.csdn.net/weixin_46098577/article/details/120167360 孙 悟 空,你是我爹。 阅读全文
posted @ 2022-06-25 13:45 爱和九九 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 这里其实有些跳课,最近看沐神看得比较少,在做毕业设计,但是因为要用到注意力机制了,所以抓紧时间过来先学这个,不按顺序学习是对我这个处女座最大的折磨(哭哭) 我在毕业设计中遇到了一个问题,对于HSV三个特征,我发现HS的贡献较小,V的贡献很大,所以我希望在模型训练中强化V所发挥的作用,因此我的第一个想 阅读全文
posted @ 2022-05-05 19:14 爱和九九 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 首先,奠基性工作——基于CNN的样式迁移 这里有三个三层的卷积神经网络,一个输入为内容,一个输入为样式,中间那个是合成图,这个神经网络训练的竟然不是权重,而是这个合成图。它的思想就是我要训练这张合成图,让他既匹配内容图片的CNN的某一层的输出,又匹配样式图片CNN的某一层的输出,这样我们就认为这张图 阅读全文
posted @ 2022-04-25 16:18 爱和九九 阅读(44) 评论(0) 推荐(0) 编辑
摘要: FCN是深度神经网络用来做图像领域的语义分割的奠基性工作,它用转置卷积层替换掉CNN最后的全连接层,从而可以预测每一个像素的类别。 (但也因为是奠基性工作,所以现在的应用已经很少了。) 解释一下这个网络: 首先,将图片传到CNN中,进行特征的提取,但是CNN不包含池化层和全连接层,因为不做全局分类; 阅读全文
posted @ 2022-04-25 13:59 爱和九九 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 这个东西最近做深度学习复现总是遇到,记一下。 1 histogram(a,bins=10,range=None,weights=None,density=False); 2 # a是待统计数据的数组; 3 # bins指定统计的区间个数; 4 # range是一个长度为2的元组,表示统计范围的最小值 阅读全文
posted @ 2022-04-12 19:46 爱和九九 阅读(384) 评论(0) 推荐(0) 编辑
摘要: 转置卷积可以用来增大输入的高宽,算是对卷积的反卷?并不是。 转置卷积本质上还是一个卷积,它只是与卷积在形状上是相反的,但是数值不是; 卷积的逆运算是反卷积,反卷积的输入和输出与卷积的输出和输入相同; 反卷积是数学上的概念,计算机领域但凡提到“反卷积神经网络”指的都是用转置卷积,因为反卷积在机器学习领 阅读全文
posted @ 2022-03-30 21:51 爱和九九 阅读(194) 评论(0) 推荐(0) 编辑
摘要: R-CNN:物体检测的奠基性工作 其实就是在CNN的基础上,加了一个RoI池化层,(region of interest,兴趣区域)。 给定一个锚框,将锚框均匀分割成nxm块,输出每一块的最大值,这样就能总是输出nm个值。 (当然不可能一直均匀,肯定有不均匀的时候,一块比一块多一些很正常) 这样就可 阅读全文
posted @ 2022-03-21 22:02 爱和九九 阅读(226) 评论(0) 推荐(0) 编辑
摘要: concatenate([a1, a2, …], axis=0) 这是numpy里一个非常方便的数组拼接函数,也就是说,传入n个数组在中括号中,即可得到一个这些数组拼接好的新的大数组;axis=0表示从行方向上拼接,=1表示从列方向上拼接,如果是高维以此类推。 但是,今天遇到一个新的用法,如exam 阅读全文
posted @ 2022-03-21 15:45 爱和九九 阅读(1944) 评论(0) 推荐(0) 编辑
摘要: 原视频地址:https://www.bilibili.com/video/BV13D4y1Q7RS?from=search&seid=9311985917721407930&spm_id_from=333.337.0.0 content 1、命令行 2、常用语句 3、矩阵 4、rand随机数 5、元 阅读全文
posted @ 2022-03-15 20:38 爱和九九 阅读(256) 评论(0) 推荐(0) 编辑
摘要: 微调:不是调参,而是将一个已经训练好的网络,用于另一个数据集,类似迁移学习吧。 一个神经网络一般分成2块——特征抽取和线性分类器 微调的效果在“源数据集远远大于目标数据集的时候”效果很好。 底层的参数更加通用,而高层的参数更与数据集相关,因此在微调的时候可以固定底层的参数。 目标检测的常用算法 区域 阅读全文
posted @ 2022-03-15 15:11 爱和九九 阅读(116) 评论(0) 推荐(0) 编辑