1.simCLR_A simple framework for contrastive learning of visual representations.
2.OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers3.医学图像分割论文:Swin-Unet—Unet-like Pure Transformer for Medical Image Segmentation_202105.055374.可作为CV backbone的Transformer:Swin Transformer_Hierarchical Vision Transformer using Shifted Windows5.医学图像分割论文(cvpr2021): TransUNet6.结节良恶性预测:Parse and Recall: Towards Accurate Lung Nodule Malignancy Prediction like Radiologists7.SENetV2: 用于通道和全局表示的聚合稠密层8.u-net v2: rethinking the skip connections of u-net for medical image segmentation9.YOLOv10: Real-Time End-to-End Object Detection
摘要
提出SimCLR,用于视觉表征的对比学习,简化了最近提出的对比自监督学习算法,为了理解是什么使对比预测任务能够学习有用的表示,系统研究了提出框架的主要组成部分,发现:
(1)数据增强的组成在定义有效的预测任务中起着关键的作用
(2)在表示和对比损失之间引入一个可学习的非线性变换,大大提高了已学习表示的质量
(3)与监督学习相比,对比学习受益于更大的批量规模和更多的训练步骤
SimCLR学习的自监督表示训练的线性分类器达到了76.5%的top-1精度,比之前的技术水平提高了7%,与监督ResNet-50的性能相匹配。
代码:https://github.com/google-research/simclr
方法
- 对比学习框架
随机采样一个minibatch的数据(N个样本),定义生成的增强样本对的对比预测任务,得到2N个数据点,给定一个正例对,将其它2(N-1)个增强样本当作负例,相似性度量采用余弦距离,则正例对(i,j)的损失函数为:
τ代表温度参数,最后的损失是计算所有正例样本对,包含(i,j)和(j,i),称之为NT-Xent (the normalized temperature-scaled cross entropy loss)
提出的方法可总结为:
实验
1. 投影头实验发现:
- 非线性投影比线性投影好(>3%),比不投影高很多(>10%)
- 隐藏层在投影头前面比在层后面要好
2. NT-Xent损失与其它常用对比损失函数的比较(logistic loss、margin loss):
3. 采用不同标签训练时的指标对比:
公众号
过去已逝,未来太远,只争今朝
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律