摘要:
目录 论文 创新点 三阶段流程 论文 地址: Pushing the Limits of Simple Pipelines for Few-Shot Learning: External Data and Fine-Tuning Make a Difference CVPR2022 Sumsung 阅读全文
摘要:
目录 卷积 卷积层的结构参数 计算公式 特殊卷积 卷积的矩阵表示 转置卷积 空洞卷积 可分离卷积 空间可分离卷积 深度可分离卷积 分组卷积 可变形卷积 卷积 卷积层的结构参数 **卷积核大小(Kernel Size): **定义卷积操作的感受野。 步幅(Stride): 定义卷积核遍历图像时的步幅大 阅读全文
摘要:
EfficientNet V2网络 目录 前言 EfficientNet V1中存在的问题 EfficientNet V2中的贡献 网络框架 Progressive Learning渐进学习策略 代码 前言 EfficientNet V2是2021年4月份发布的,下图是论文中给出的性能参数。 可以看 阅读全文
摘要:
EfficientNet网络 目录 前言 论文思想 网络结构 MBConv结构 EfficientNet(B0-B7)参数 代码 前言 在一些手工设计的网络中,我们常常将输入图像分辨率固定为224。为什么设置这个值,而网络的深度为什么这么设?如果要问的话,可能回复就四个字—工程经验。 而Effici 阅读全文
摘要:
常用损失函数 目录 损失函数的意义 均方误差(MSE) 计算方法 适用场景 代码 均方根误差(RMSE) 计算方法 使用场景 代码 平均绝对误差(MAE) 计算方法 适用场景 代码 交叉熵损失 计算方法 适用场景 代码 对数似然损失 计算方法 适用场景 代码 余弦相似度损失(CSL) 计算方法 推理 阅读全文
摘要:
目录 什么是正则化 什么是范数 L1正则化 L2正则化 其他正则化方法 什么是正则化 在机器学习中,一个核心问题是设计不仅在训练数据集上表现好,而且能在新输入上有好的泛化性,因此许多策略被显式地设计来减少测试误差,这些 策略统称为正则化。 因此,正则化被定义为对学习算法地修改-减少泛化误差而不是训练 阅读全文
摘要:
标签平滑 目录 前言 交叉熵损失 Label Smoothing 代码实现 前言 Label Smoothing(标签平滑)是一种正则化的方法,用于减轻过拟合的影响。其应用场景必须具备以下几个要素: 标签必须是one-hot向量 损失函数是交叉熵损失函数 交叉熵损失 交叉熵损失是做分类任务里常用的一 阅读全文
摘要:
训练CV比赛常用Tips & Tricks 目录 引言 1. 图像增强 颜色增强 RGB Norm Black and White Ben Graham: Grayscale + Gaussian Blur Hue,Saturation,Brightness LUV Color Space Alph 阅读全文
摘要:
什么是Matching Network 1. 论文地址:Matching Networks for One Shot Learning 2. 简介:基于Metric Learning部分思想,使用外部记忆来增强网络,提高网络的学习能力。 3. 创新点 借鉴了注意力和外部记忆方面的经验来搭建网络 基于 阅读全文
摘要:
MAML算法概述 什么是MAML 1. 论文地址:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks 2. 要解决的问题 小样本问题 模型收敛过慢 3. 算法描述 MAML期望通过训练一组初始化参数,使得模型透过训练 阅读全文