随笔分类 - 深度学习基础知识2021-2022
摘要:论文题目:Perceptual Losses for Real-Time Style Transferand Super-Resolution 感知损失: 在计算低层的特征损失(像素颜色,边缘等)的基础上,通过对原始图像的卷积输出和生成图像的卷积输出进行对比,并计算损失。换句话说,利用卷积层抽象高层
阅读全文
摘要:类平均准确率就是平均召回率
阅读全文
摘要:数据增强(Data Augmentation)的目的与作用卷积神经网络能够鲁棒地将物体分类,即便物体放置在不同的方向上,这也就是所说不变性的性质,即使卷积神经网络被放在不同方向上,它也能进行对象分类。更具体的说,卷积神经网络对平移、视角、尺寸或照度(或以上组合)保持不变性。这就是数据增强的本质前提。
阅读全文
摘要:这个链接很详细:https://blog.csdn.net/lz0499/article/details/101626098 抖动是通过错位的位移对图像产生的一种特殊效果:三者针对的目标分别为色相、亮度和饱和度。色彩抖动通过对构成图像的色相产生位移,造成临近点状差异的色彩交叉效果;饱和度抖动,饱和度
阅读全文
摘要:https://www.jianshu.com/p/564ca3994482 https://blog.csdn.net/qq_23664173/article/details/83010348 https://www.cnblogs.com/xuexuefirst/p/8858274.html 1
阅读全文
摘要:在自监督学习中,用于预训练的任务被称为前置/代理任务(pretext task),用于微调的任务被称为下游任务(downstream task)。 https://its304.com/article/weixin_38673554/107095413
阅读全文
摘要:https://its304.com/article/weixin_38673554/107095413 讲了pretext task、downstream task
阅读全文
摘要:1.backbone:翻译为主干网络的意思,既然说是主干网络,就代表其是网络的一部分,那么是哪部分呢?翻译的很好,主干部分,哈哈哈哈,文字游戏了哈。这个主干网络大多时候指的是提取特征的网络,其作用就是提取图片中的信息,共后面的网络使用。这些网络经常使用的是resnet VGG等,而不是我们自己设计的
阅读全文
摘要:MMD距离(Maximum mean discrepancy),最大均值差异。 1.我们可以用随机变量的矩来描述一个随机变量,比如一阶中心矩是均值,二阶中心矩是方差等等。如果两个分布的均值和方差都相同的话,它们应该很相似,比如同样均值和方差的高斯分布和拉普拉斯分布。但是很明显,均值和方差并不能完全代
阅读全文
摘要:注意里面的一个参数: cv2.COLOR_RGB2BGR,这里只是表示一个通道的转换,例如:如果你用cv2读取了一幅图片, 读进去的是BGR格式的,但是在保存图片时,要保存为RGB格式的,可以用cv2.COLOR_RGB2BGR也可以用cv2.COLOR_BGR2RGB, 效果是一样的。
阅读全文
摘要:对于图像来说: image.shape[0]——图片高h image.shape[1]——图片长w image.shape[2]——图片通道数channels 而对于矩阵来说: shape[0]:表示矩阵的行数 shape[1]:表示矩阵的列数
阅读全文
摘要:cv2.imread函数返回np.numpy类型 Image.open()函数返回Image对象 from PIL import Image import numpy as np im = Image.open("/home/lw/a.jpg") im.show() img = np.array(i
阅读全文
摘要:padding是增加各个边的pixels的数量,目的是保持feature map 不要太小,但也没必要超过原图的大小,所以不可以任意数量;padding的上限是维持feature map 大小与原图大小一致,具体增加pixel的数量多少,由filter的尺寸和stride大小共同决定;有一个具体的算
阅读全文
摘要:import cv2 import numpy as np def mergeImg(inputImg, maskImg, contourData, drawPosition): ''' :param inputImg: 输入的图像 :param maskImg: 输入的模板图像 :param co
阅读全文
摘要:from PIL import Image import os import os.path import numpy as np import cv2 img = Image.open('img/1633733372.463482.jpg') print(img.format, img.size,
阅读全文
摘要:Truncation trick 是指:通过 重新采样 幅度高于所选阈值的值来截断隐向量z导致个体样品质量的改善,但代价是多样性下降。对于一个特定的生成网络,该技术允许对真实性和多样性的平衡进行细致的后验选择。
阅读全文
摘要:你论文提了三个贡献点:A、B、C。 你去掉A,其它保持不变,发现效果降低了,那说明A确实有用。 你去掉B,其它保持不变,发现效果降的比A还多,说明B更重要。 你去掉C,其它保持不变,发现效果没变,那C就是凑字数的。 类似控制变量法
阅读全文
摘要:自监督(self-supervised)既可以认为是有监督(supervised)也可以认为是无监督(unsupervised),主要取决于如何定义有监督。 自监督学习(Self-supervised Learning):是指直接从大规模的无监督数据中挖掘自身监督信息来进行监督学习和训练的一种机器学
阅读全文