针对使用Unet预测的结果全是黑(白)色的分析及解决方案
•出现该问题的原因是:选用的loss函数有问题,目前使用的loss函数是binary_corssentropy,这种loss函数将正样本和负样本均拿来计算loss值
•在医学图像分割的例子中,正样本(目标、器官等)非常的少,仅仅占图像面积中极少的一部分,但是负样本(背景或者无关区域)面积非常大,因此刚开始训练的时候,负样本就已经使得loss变得非常小了,准确率非常高了。
•解决方案方案是:选用DSC loss函数;这种loss(直观理解)约束的是正样本的准确率。
具体可以参考以下博主的分析:
https://blog.csdn.net/m0_37477175/article/details/83004746
个人觉得写的非常深刻,很有借鉴意义。