摘要: 组会论文小结 阅读全文
posted @ 2023-04-02 11:30 古幽月兮 阅读(140) 评论(0) 推荐(0) 编辑
摘要: 五篇论文简要学习心得 阅读全文
posted @ 2023-02-13 18:04 古幽月兮 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 1、《BAM: Bottleneck Attention Module》 在这篇文章中,作者提出了新的Attention模型——瓶颈注意模块,通过分离的两个路径channel和spatial得到attention map,减少计算开销和参数开销。 针对输入特征F,通过两个通道,一个是通道Mc一个是空 阅读全文
posted @ 2021-10-24 21:21 古幽月兮 阅读(197) 评论(0) 推荐(0) 编辑
摘要: 深度学习、带卷积、SKNet 阅读全文
posted @ 2021-10-23 21:21 古幽月兮 阅读(101) 评论(0) 推荐(0) 编辑
摘要: 1、MobileNet 随着对准确度的要求越来越高,网络也越来越深。因此既能保持模型性能(accuracy)也能降低模型大小(parameters size)、同时提升模型速度(speed, low latency)的MobileNet应运而生。 MobileNet的基本单元是深度可分离卷积(dep 阅读全文
posted @ 2021-10-03 20:37 古幽月兮 阅读(178) 评论(0) 推荐(0) 编辑
摘要: 一、理论学习 1、AlexNet的主要改进:在全连接层后增加丢弃法Dropout、使用ReLU减缓梯度消失、使用MaxPooling 上下两层是两个GPU的结果,输入为227*227*3的图片(由224*224*3调整得来),第一层卷积的卷积核数量为96,卷积核大小为11*11*3,步长是4,pad 阅读全文
posted @ 2021-09-26 21:58 古幽月兮 阅读(387) 评论(1) 推荐(0) 编辑
摘要: 一、理论学习 1、基本理论 对于定义一个类,都要继承nn.Module。在类里,通常不可缺少的两个函数分别是__init__()和forward()。__init__()函数首先调用父类的__init__()函数,再定义所需要的层以及所需要的操作;forward()前向函数将输入进行__init__ 阅读全文
posted @ 2021-09-19 21:17 古幽月兮 阅读(155) 评论(0) 推荐(0) 编辑
摘要: 夯实基础是必要的,每天学一点点也是必要的,快乐摸鱼生活又过去了一周~ 阅读全文
posted @ 2021-09-12 01:04 古幽月兮 阅读(282) 评论(0) 推荐(0) 编辑
摘要: 深度学习基础你打好了吗?没有吧?我也没有 阅读全文
posted @ 2021-09-05 21:48 古幽月兮 阅读(113) 评论(1) 推荐(0) 编辑
摘要: GAN、cGAN、DCGAN 阅读全文
posted @ 2020-12-03 17:42 古幽月兮 阅读(90) 评论(2) 推荐(0) 编辑