摘要:
组会论文小结 阅读全文
摘要:
五篇论文简要学习心得 阅读全文
摘要:
1、《BAM: Bottleneck Attention Module》 在这篇文章中,作者提出了新的Attention模型——瓶颈注意模块,通过分离的两个路径channel和spatial得到attention map,减少计算开销和参数开销。 针对输入特征F,通过两个通道,一个是通道Mc一个是空 阅读全文
摘要:
深度学习、带卷积、SKNet 阅读全文
摘要:
1、MobileNet 随着对准确度的要求越来越高,网络也越来越深。因此既能保持模型性能(accuracy)也能降低模型大小(parameters size)、同时提升模型速度(speed, low latency)的MobileNet应运而生。 MobileNet的基本单元是深度可分离卷积(dep 阅读全文
摘要:
一、理论学习 1、AlexNet的主要改进:在全连接层后增加丢弃法Dropout、使用ReLU减缓梯度消失、使用MaxPooling 上下两层是两个GPU的结果,输入为227*227*3的图片(由224*224*3调整得来),第一层卷积的卷积核数量为96,卷积核大小为11*11*3,步长是4,pad 阅读全文
摘要:
一、理论学习 1、基本理论 对于定义一个类,都要继承nn.Module。在类里,通常不可缺少的两个函数分别是__init__()和forward()。__init__()函数首先调用父类的__init__()函数,再定义所需要的层以及所需要的操作;forward()前向函数将输入进行__init__ 阅读全文
摘要:
夯实基础是必要的,每天学一点点也是必要的,快乐摸鱼生活又过去了一周~ 阅读全文
摘要:
深度学习基础你打好了吗?没有吧?我也没有 阅读全文