摘要: 后台运行: nohup python3 train.py & 首先拉一个镜像: sudo docker pull ubuntu :拉一个乌班图的镜像 如何使用这个镜像: sudo docker run -i -t ubuntu /bin/bash:这样就进入了乌班图的一个终端 输入ls可以查看目录: 阅读全文
posted @ 2023-07-03 16:07 机器智能小白凡 阅读(11) 评论(0) 推荐(0) 编辑
摘要: nnFormer不仅利用了交错卷积和自注意操作的结合,还引入了局部和全局基于体积的自注意机制来学习体积表示。此外,nnFormer还提出在类似U-Net的架构中,使用跳转注意(skip-attention)来取代跳转连接(skip-connection)中传统的连接/求和操作. 有许多方法试图将变压 阅读全文
posted @ 2023-06-09 13:34 机器智能小白凡 阅读(616) 评论(0) 推荐(0) 编辑
摘要: 1 阅读全文
posted @ 2023-06-08 14:28 机器智能小白凡 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 目前的SSL方法一般采用判别方法和重构方法(discriminative methods and reconstruction methods),典型的判别方法包括旋转[3]、魔方[20]和对比学习[14](rotating [3], RubikCube [20] and contrastive l 阅读全文
posted @ 2023-05-15 18:05 机器智能小白凡 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 简单来说,就是分为两个流,用CNN来获取局部信息,用tranformer获取全局上下文信息,Transformer模块生成一个图像级上下文表示(ICR)来构建图像级的空间依赖图,并生成区域重要性系数(RIC)来模拟每个区域的重要性。 模型结构如下: 在第一个流当中,我们应用CNN来获取图像(但好像是 阅读全文
posted @ 2023-05-10 13:23 机器智能小白凡 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 在VGG中,卷积网络达到了19层,在GoogLeNet中,网络史无前例的达到了22层。那么,网络的精度会随着网络的层数增多而增多吗?在深度学习中,网络层数增多一般会伴着下面几个问题 计算资源的消耗 模型容易过拟合 梯度消失/梯度爆炸问题的产生 问题1可以通过GPU集群来解决,对于一个企业资源并不是很 阅读全文
posted @ 2023-04-07 17:43 机器智能小白凡 阅读(82) 评论(0) 推荐(0) 编辑
摘要: 2023年3月发表在arxiv 现阶段,人们对于transformer的兴趣激增,然而,由于缺乏大规模的注释医疗数据集,使得实现与自然图像相同的性能具有挑战性,相比之下,卷积网络具有更高的归纳偏差,因此,很容易被训练到高性能。现阶段,ConvNext试图通过镜像transformer来使得ConvN 阅读全文
posted @ 2023-03-29 18:38 机器智能小白凡 阅读(547) 评论(0) 推荐(0) 编辑
摘要: 我们在CNN架构中广泛使用了多重注意力,并提出了一个全面的基于注意力的CNN(CA-Net),以更准确和可解释的医学图像分割,同时了解最重要的空间位置、通道和尺度。特别地,我们首先提出了一个联合空间注意模块,使网络更多地关注前景区域。然后,在此基础上,提出了一种新的通道注意模块来自适应地重新校准通道 阅读全文
posted @ 2023-03-21 19:08 机器智能小白凡 阅读(191) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示