医学分割 不确定性 2019 MICCAI

z今天分享一篇发表在MICCAI 2019上的论文:

Uncertainty-aware Self-ensembling Model for Semi-supervised 3D Left Atrium Segmentation

https://www.cnblogs.com/CZiFan/p/13180440.html 

1 研究背景

训练网络  大量标签数据, 然而  分割任务 标注成本高,因此 半监督方法。

这篇文章针对3D MR图像的左心房分割任务  提出了不确定性感知自增强模型,有效地利用无标签数据。

1. 对于有标签数据,学生模型 (student model)进行有监督学习。 

2. 对于无标签数据,通过教师模型 (teacher model)预测分割图,作为学生模型 (student model)的学习目标,并同时评估学习目标的不确定性

3. 基于学习目标的不确定性,采用一致性损失函数提高学生模型的性能。

   采用了指数移动平均 (exponential moving average, EMA)策略来提高教师模型的预测结果

2 方法

1. 半监督分割 (Semi-supervised segmentation)

监督损失部分(交叉熵损失)Ls+Lc  教师模型和学生模型之间的无监督损失部分

2. 不确定性感知 (Uncertainty-Aware Mean Teacher Framework)

教师模型对于无标签数据的预测结果是不确定性且有噪声的,而这些预测结果将作为学生模型学习的一部分(Lc)。

因此作者设计了不确定性感知策略使得学生模型能够逐渐学习更加可靠的目标。

具体地,对于训练图像,教师模型不仅要预测它们的分割图,还要评估它们的不确定性。

然后学生模型在学习中只选取其中具有更低的不确定性(更加可靠)的数据计算一致性损失 (consistency loss)。

 

2.3.1 不确定性评估 (Uncertainty Estimation)

不确定评估是由教师模型生成的,具体有:
1. 对于每一个输入数据,进行 T 次前向传播获得预测结果,每一次都随机对输入数据加入高斯噪声或者在网络中加入随机dropout。因此每一个体素都有 T 个预测结果,可以表示为『Pt』t=1T

2. 采用预测熵 (predictive entropy)大致近似不确定性

Ptc表示对在第 t 次前向传播中对属于第 c 类别概率的预测,最终可以构成一个不确定性张量 U,『u』的集合。

先算出T次向前传播后的预测值,然后使用了一个信息熵公式求出不确定性

2.3.2 基于不确定性的一致性损失函数 (Uncertainty-Aware Consistency Loss)

有了上一步的教师模型预测的不确定性结果U,可以过滤掉相对不确定的预测,而选取相对可靠的预测作为学生模型的学习目标。

 

posted @ 2022-08-02 08:53  ethan178  Views(216)  Comments(0Edit  收藏  举报