语义分割综述

https://blog.csdn.net/bailing910/article/details/82625918?ops_request_misc=&request_id=&biz_id=102&utm_term=82625918&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-3-82625918.first_rank_v2_pc_rank_v29

 

 

从粗粒度推理到细粒度推理的演变

 

语义分割是为场景理解铺平了道路的一种高层任务

语义分割问题是如何用深度学习框架解决的

 

从粗糙推理到精细化推理过程:

粗粒度推理,分类问题中,包括对整个输入做出预测,即预测哪个物体是属于这幅图像的,或者给出多个物体可能性的排序。

对于细粒度推理来说,将接下来进行物体的定位与检测,这将不止提供物体的类别,而且提供关于各类别空间位置的额外信息,比如中心点或者边框。

 

语义分割的目标是:对每个像素点进行密集的预测,这样每个像素点均被标注上期对应物体或区域的类别。这还可以进一步改进,比如实例分割(即对同一类的不同实例标以不同的标签),甚至是基于部分的分割(即对已经分出不同类别的图像进行底层分解,找到每个类对应的组成成分)。

 

AlexNet首创了深度卷积神经网络模型。

VGG由16个权重层组成,因此也被称为VGG-16,VGG-16与之前的模型的主要的不同之处在于,其在第一层使用了一堆小感受野的卷积层,而不是少数的大感受野的卷积层。这使得模型的参数更少,非线性性更强,也因此使得决策函数更具区分度,模型更好训练。

GoogLeNet,这个CNN模型以其复杂程度著称,事实上,其具有22个层以及新引入的inception模块,这种新的方法证实了CNN层可以有更多的堆叠方式,而不仅仅是标准的序列方式。实际上,这些模块由一个网络内部的网络层(NiN)、一个池化操作、一个大卷积核的卷积层及一个小核的卷积层组成。所有操作均并行计算出来,而后进行1×1卷积操作来进行降维。由于这些模块的作用,参数及操作的数量大大减少,网络在存储空间占用及耗时等方面均取得了进步。

ResNet网络还以其高达152层的深度以及对残差模块的引入而闻名。

ReNet,为了将循环神经网络 RNN 模型扩展到多维度的任务上 ,多维度循环神经网络(MDRNN)模型。

 

 

 

迁移学习的一种重要的做法便是从之前训练好的网络开始继续训练过程来微调模型的权重值。

 

数据增强一般包括在数据空间或特征空间(或二者均有)上应用一系列的迁移技术。在数据空间上应用增强技术最常见,这种增强技术应用迁移方法从已有数据中得到新的样本。有很多的可用的迁移方法:平移、旋转、扭曲、缩放、颜色空间转换、裁剪等。这些方法的目标均是通过生成更多的样本来构建更大的数据集,防止过拟合以及对模型进行正则化,还可以对该数据集的各个类的大小进行平衡,甚至手工地产生对当前任务或应用场景更加具有代表性的新样本。

 

posted @ 2021-03-15 11:53  ethan178  Views(328)  Comments(0Edit  收藏  举报