隐藏页面特效

07 2021 档案

摘要:分析 翻译 阅读全文 »
posted @ 2021-07-31 15:50 ice猫猫3 阅读(29) 评论(0) 推荐(0) 编辑
摘要:https://www.cnpython.com/qa/406818 改变形状的张量: [width, height, channels] 进入: [channels, height, width] 阅读全文 »
posted @ 2021-07-31 12:51 ice猫猫3 阅读(745) 评论(0) 推荐(0) 编辑
摘要:https://liumin.blog.csdn.net/article/details/85725195 阅读全文 »
posted @ 2021-07-31 09:55 ice猫猫3 阅读(56) 评论(0) 推荐(0) 编辑
摘要:random.randint(a,b) a,b必须是整数 函数生成的随机数n: a ⇐ n ⇐ b 阅读全文 »
posted @ 2021-07-31 09:49 ice猫猫3 阅读(809) 评论(0) 推荐(0) 编辑
摘要:代码和数据文件夹处于平行路径下 得到path里面一层的所有文件和文件夹 os.listdir(path) partimgs = os.listdir(trainingset_path+imgFoldName) 即'NCT-CRC-HE-100K/'+'ADI' 导入包 from torch.util 阅读全文 »
posted @ 2021-07-30 22:29 ice猫猫3 阅读(592) 评论(0) 推荐(0) 编辑
摘要:~ 阅读全文 »
posted @ 2021-07-30 17:01 ice猫猫3 阅读(335) 评论(0) 推荐(0) 编辑
摘要:torch.randn——标准正态分布normal torch.randn(2, 3) #2行3列 定义输出张量形状的整数序列。 0.5419 0.1594 -0.0413 -2.7937 0.9534 0.4561 [torch.FloatTensor of size 2x3] 返回一个填充了标准 阅读全文 »
posted @ 2021-07-30 16:39 ice猫猫3 阅读(1070) 评论(0) 推荐(0) 编辑
摘要:原文 example 二元(2d)——二维数据 矩阵 汇聚层(Pool)——pooling层 均值(Avg)——均值 自适应(Adaptive)——给定输入数据和输出数据的大小,自适应算法能够自动计算核的大小和每次移动的步长。 阅读全文 »
posted @ 2021-07-30 15:59 ice猫猫3 阅读(342) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/qq_41877039/article/details/97623476 阅读全文 »
posted @ 2021-07-30 10:57 ice猫猫3 阅读(116) 评论(0) 推荐(0) 编辑
摘要:比如: tuple:(1,2)即**(上下,左右)** 1代表上下方各补一行零 2代表左右方各补2列零 阅读全文 »
posted @ 2021-07-30 09:11 ice猫猫3 阅读(56) 评论(0) 推荐(0) 编辑
摘要:N = (W - F + 2P)/S + 1 其中输入图片大小为W;filter大小为F,步长(Stride)为S,padding的像素数为P 例子: 第一层卷积经过64个大小为33的卷积核,步距(padding)为1, 经过第一个卷积层后图片的大小变为22422464 计算过程: N = (224 阅读全文 »
posted @ 2021-07-29 17:17 ice猫猫3 阅读(208) 评论(0) 推荐(0) 编辑
摘要:原文 与 MNIST 数据集(手写数字)相比, CIFAR-10 具有以下不同点: • CIFAR-10 是 3 通道的彩色 RGB 图像,而 MNIST 是灰度图像。 • CIFAR-10 的图片尺寸为** 32×32**, 而 MNIST 的图片尺寸为 28×28,比 MNIST 稍大。 • 相 阅读全文 »
posted @ 2021-07-29 10:11 ice猫猫3 阅读(288) 评论(0) 推荐(0) 编辑
摘要:https://www.zhihu.com/collection/702793029 阅读全文 »
posted @ 2021-07-29 09:30 ice猫猫3 阅读(28) 评论(0) 推荐(0) 编辑
摘要:Epoch:时期。 一个时期=所有训练样本的一个正向传递和一个反向传递。 **Iteration:迭代。迭代是重复反馈的动作。**神经网络中我们希望通过迭代进行多次的训练以达到所需的目标或结果。 每一次迭代得到的结果都会被作为下一次迭代的初始值。 一个迭代=一个正向通过+一个反向通过。 Batchs 阅读全文 »
posted @ 2021-07-27 10:13 ice猫猫3 阅读(165) 评论(0) 推荐(0) 编辑
摘要:①relu角度 有点类似传统特征工程中,已有的特征在固定的模型下没有性能提升了,那就用更多的非线性变换对已有的特征去做变换,产生更多的特征的意味; 多出的relu对网络中层进一步压榨提炼特征。结合一开始单张 feature map 的 local 信息更多一些,还没来得及把信息分摊到 channel 阅读全文 »
posted @ 2021-07-26 16:33 ice猫猫3 阅读(310) 评论(0) 推荐(0) 编辑
摘要:前面的5组pooling层: feature map 的** width 和 height** 随着每个pool操作缩小50%,5个pool 操作使得 width 和 height 逐渐变化:224->112->56->28->14->7, 但是深度depth(或说是channel数),随着5组卷积 阅读全文 »
posted @ 2021-07-26 11:10 ice猫猫3 阅读(613) 评论(0) 推荐(0) 编辑
摘要:filter 1×1(源自Network in Network ), ①输入输出channel数相同,可以看作是输入的线性变换,但是增加了非线性(∵后面跟着的relu层) ②对feature map降维/升维(∵输出的channel数=核数) 对 feature map 的channel级别降维或升 阅读全文 »
posted @ 2021-07-26 10:03 ice猫猫3 阅读(320) 评论(0) 推荐(0) 编辑
摘要:定义:将特征图所有像素值相加求平局,得到一个数值,即用该数值表示对应特征图。 目的:替代全连接层 应用:若最终分成10类,则最后卷积层应包含10个滤波器(即输出10个特征图),然后按照全局池化平均定义,分别对每个特征图,累加所有像素值并求平均,最后得到10个数值,将这10个数值输入到softmax层 阅读全文 »
posted @ 2021-07-24 20:37 ice猫猫3 阅读(315) 评论(0) 推荐(0) 编辑
摘要:在CS231n里讲到现在也在逐渐不使用 pooling,因为发现完全可以使用 一个 stride 不等于1的卷积来代替pooling, **另外,不少工作,如生成模型(generative models)、对抗网络(adversarial networks)、变分自动编码器(variational 阅读全文 »
posted @ 2021-07-23 20:59 ice猫猫3 阅读(114) 评论(0) 推荐(0) 编辑
摘要:奇数卷积中心对称,而偶数卷积在实现时没有对称点,这将导致在实现时卷积利用的信息不能是各个方向的,只能是左上或其他方向,因此整体将会导致feature map往一个方向偏移。 如果是4×4的卷积核,可以说 4×4 因为是偶数,中间没有感受野中心,但是也可以说 4×4 有 4 个感受野中心,也可以捕捉上 阅读全文 »
posted @ 2021-07-23 13:21 ice猫猫3 阅读(347) 评论(0) 推荐(0) 编辑
摘要:计算了同样conv3x3、conv5x5、conv7x7、conv9x9和conv11x11,在224x224x3的RGB图上(设置pad=1,stride=4,output_channel=96)做卷积,卷积层的参数规模和得到的feature map的大小: 看来大卷积核带来的参数量并不大(卷积核 阅读全文 »
posted @ 2021-07-23 10:22 ice猫猫3 阅读(524) 评论(0) 推荐(0) 编辑
摘要:局部信息因为过大的重叠,会造成更多细节信息的丢失。 stride 为4,对于11×11的kernel size而言, 中间有很大的重叠,计算出的3×3区域每个值很过于受到周边像素的影响,原始的特征多少有被平滑掉的感觉 阅读全文 »
posted @ 2021-07-23 10:04 ice猫猫3 阅读(283) 评论(0) 推荐(0) 编辑
摘要:from scrath 在英文中的意思就是“从零开始、从头开始、白手起家”,引申过来就是不使用预训练文件而直接进行训练。 阅读全文 »
posted @ 2021-07-22 14:27 ice猫猫3 阅读(260) 评论(0) 推荐(0) 编辑
摘要:分析的原文 用来做目标检测和语义分割的神经网络。 观点:缺乏大量的标注数据时(maybe数据库小),比较好的可行的手段是,进行神经网络的迁移学习,采用在其他大型数据集训练过后的神经网络,然后在小规模特定的数据集中进行 fine-tune 微调。 迁移学习:将一个问题A(有好多数据量)上训练好的模型通 阅读全文 »
posted @ 2021-07-22 13:53 ice猫猫3 阅读(57) 评论(0) 推荐(0) 编辑
摘要:根据左图(input)输出右图(output) 语义:语音识别☞语音的意思;图像☞图像的内容,对图片意思的理解(三个人骑着三辆自行车) 分割:分割出图片中的不同对象,对原图中的每个像素都进行标注(粉红色代表人,绿色代表自行车) **应用:**卫星遥感影像、无人车、医疗影像 阅读全文 »
posted @ 2021-07-22 09:56 ice猫猫3 阅读(341) 评论(0) 推荐(0) 编辑
摘要:连续乘法导致的梯度的衰减, 如果在连续乘法中出现一个非常大的值,最后计算出的梯度就会很大, 如果以这个梯度值进行更新,那么这次迭代的步长就很大,可能会一下子飞出了合理的区域。 阅读全文 »
posted @ 2021-07-22 09:00 ice猫猫3 阅读(152) 评论(0) 推荐(0) 编辑
摘要:3个kernel3相当于1个kernel7的; 2个kernel3相当于1个kernel5的; 更深(特征更多 (局部最优)),非线性层越多(使决策函数更加具有辨别能力) 参数量减少3*(3C)的平方 vs (7C)的平方 计算量也减少 3×3的9个格子,最中间的格子是一个感受野中心,可以捕获上下左 阅读全文 »
posted @ 2021-07-22 08:53 ice猫猫3 阅读(576) 评论(0) 推荐(0) 编辑
摘要:inception模块的基本机构如下图,整个inception结构就是由多个这样的inception模块串联起来的。 主要贡献有两个: ①使用1x1的卷积来进行升降维; ②在多个尺寸上同时进行卷积再聚合。(在直观感觉上在多个尺度上同时进行卷积,能提取到不同尺度的特征。特征更为丰富也意味着最后分类判断 阅读全文 »
posted @ 2021-07-22 08:46 ice猫猫3 阅读(37) 评论(0) 推荐(0) 编辑
摘要:论文译文 大佬分析的原文 简洁分析 架构: 实际的VGG16(只算卷积和全连接层的个数为16) (前两组conv-relu-conv-relu-pool,中间三组conv-relu-conv-relu-conv-relu-pool,最后三个fc,前两个fc是fc-relu-dropout,最后一个f 阅读全文 »
posted @ 2021-07-21 22:17 ice猫猫3 阅读(179) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/m0_45962052/article/details/104849869 阅读全文 »
posted @ 2021-07-21 22:07 ice猫猫3 阅读(28) 评论(0) 推荐(0) 编辑
摘要:8层(5个conv 3个fc) 绿的norm层后来证明没啥用 现在看它的conv1用的卷积核11 stride4就挺离谱的 特点: ①用的relu激活函数,成功解决了Sigmoid在网络较深时的梯度弥散问题。(虽然别人提过 略略略) 在ReLU之后会做一个normalization(没啥用 阿一古) 阅读全文 »
posted @ 2021-07-21 21:30 ice猫猫3 阅读(149) 评论(0) 推荐(0) 编辑
摘要:IoU 的全称为交并比(Intersection over Union) “预测的边框” 和 “真实的边框” 的交集和并集的比值。 链接 阅读全文 »
posted @ 2021-07-21 16:47 ice猫猫3 阅读(143) 评论(0) 推荐(0) 编辑
摘要:防止过拟合 除了数据增强,还有正则项/dropout等方式可以防止过拟合。 常见方法: 1)随机旋转 随机旋转一般情况下是对输入图像随机旋转[0,360) 2)随机裁剪 随机裁剪是对输入图像随机切割掉一部分 3)色彩抖动 色彩抖动指的是在颜色空间如RGB中,每个通道随机抖动一定的程度。在实际的使用中 阅读全文 »
posted @ 2021-07-21 11:43 ice猫猫3 阅读(297) 评论(0) 推荐(0) 编辑
摘要:在多级前馈网当中,隐藏层的定义是:除输入层和输出层以外的其他各层叫做隐藏层。隐藏层不直接接受/接触外界的信号,也不直接向外界发送信号。 阅读全文 »
posted @ 2021-07-21 10:37 ice猫猫3 阅读(437) 评论(0) 推荐(0) 编辑
摘要:不用Sigmoid,现在用relu啦 relu: Sigmoid: Sigmoid 和 Softmax 区别: 二分类问题时它们一样,而 softmax 可以用于多分类问题 阅读全文 »
posted @ 2021-07-21 09:58 ice猫猫3 阅读(266) 评论(0) 推荐(0) 编辑
摘要:卷积conv 全连接fc(full connected) 不算POOLing、LRN、softmax(通常用relu的),可能是因为: 参数太少。像relu、pool这样的层参数量太少,有的甚至如激活层relu不保存中间结果直接给下一层; 计算量小。相比conv甚至fc,pool这些层的计算量太少。 阅读全文 »
posted @ 2021-07-21 09:46 ice猫猫3 阅读(38) 评论(0) 推荐(0) 编辑
摘要:一条龙服务 一个典型的机器学习构建包含若干个过程,pytorch中有好多包进行调用的吧~~~~~ 1、源数据ETL 2、数据预处理 3、特征选取 4、模型训练与验证 以上四个步骤可以抽象为一个包括多个步骤的流水线式工作,从数据收集开始至输出我们需要的最终结果。因此,对以上多个步骤、进行抽象建模,简化 阅读全文 »
posted @ 2021-07-21 09:40 ice猫猫3 阅读(80) 评论(0) 推荐(0) 编辑
摘要:在别人的网络上微微改动①去尾巴,得特征,换线性分类器②去尾巴和一点卷积层,得泛化特征 以下是常见的两类迁移学习场景: 1 卷积网络当做特征提取器。 拿掉全连接层,剩余部分当做特征提取器 这样提取的特征叫做CNN codes。 再线性分类器(Liner SVM、Softmax等)来分类图像。 2 Fi 阅读全文 »
posted @ 2021-07-21 09:14 ice猫猫3 阅读(448) 评论(0) 推荐(0) 编辑
摘要:localization是找到某个物体的检测框 detection是找到所有物体的检测框 阅读全文 »
posted @ 2021-07-21 08:37 ice猫猫3 阅读(269) 评论(0) 推荐(1) 编辑
摘要:背景:当我们输入一张图片时,我们要搜索出所有可能是物体的区域,搜出的候选框是矩形的,而且是大小各不相同。因此对于每个输入的候选框都需要缩放到相同的大小。 各向异性缩放:直接拉伸,扭曲了 整变异了 各项同性缩放:看链接 阅读全文 »
posted @ 2021-07-20 17:35 ice猫猫3 阅读(395) 评论(0) 推荐(0) 编辑
摘要:L2正则化倾向于使网络的权值接近0(L2正则化实质上是对权值做线性衰减)。这会使前一层神经元对后一层神经元的影响降低,使网络变得简单,降低网络的有效大小,降低网络的拟合能力。 正则化的目的:限制参数过多或者过大,避免模型更加复杂。例如,使用多项式模型,如果使用 10 阶多项式,模型可能过于复杂,容易 阅读全文 »
posted @ 2021-07-20 09:57 ice猫猫3 阅读(169) 评论(0) 推荐(0) 编辑
摘要:正则化是解决高方差问题的重要方案之一,也是Reducing Overfiltering(克服过拟合)的方法。 过拟合一直是DeepLearning的大敌,它会导致训练集的error rate非常小,而测试集的error rate大部分时候很大。网络的拟合能力随之降低,这会使网络不容易过拟合到训练集。 阅读全文 »
posted @ 2021-07-20 09:39 ice猫猫3 阅读(265) 评论(0) 推荐(0) 编辑
摘要:****数组 arrli****st:可以放不同类型的数据 list****:可以放不同类型的数据 ↓看不太懂 https://blog.csdn.net/dibengshao7358/article/details/102209871 阅读全文 »
posted @ 2021-07-15 22:11 ice猫猫3 阅读(82) 评论(0) 推荐(0) 编辑
摘要:梁老板写的教程 配置好以后,点击下图中的打开文件小图标即可使用虚拟环境 环境选择pytorch_env,里面的包都装好了 平时有文件,可以直接拖到远程调试的那个界面里面 ① ② ③ ④ ⑤ ⑥ 阅读全文 »
posted @ 2021-07-15 11:41 ice猫猫3 阅读(162) 评论(0) 推荐(0) 编辑
摘要:在conda创建的环境pytorch_version3.8里面装包 进入环境 activate pytorch_version3.8 装包(pip已经装好了的话) 装cv2pip install opencv-python pip install matplotlib pip install sci 阅读全文 »
posted @ 2021-07-14 14:53 ice猫猫3 阅读(36) 评论(0) 推荐(0) 编辑
摘要:我和教程不一样的地方(下载这个事情很玄学,早上或者中午的时候 可能人少 就下的成功概率大) 装了最新版的anaconda,然后打开anaconda prompt 环境管理部分:命名成了pytorch_env3.8 python=3.8 我电脑上没有gpu,pytorch的下载选项用cpu版本的指令↓ 阅读全文 »
posted @ 2021-07-14 13:00 ice猫猫3 阅读(103) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示