alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

【619】语义分割构建网络的输入与输出

  假设图像尺寸为 512x512,标签图像为同样大小的灰度图。

  输入数据与标签数据

  • 输入数据:(batch, 512, 512, 3),三个通道的数据
  • 标签数据:(batch, 512, 512, 1),0 和 255,调整为 0 和 1,相当于两个类

  构建 U-Net 的模型

  • Model inputs:(batch, 512, 512, 3)
  • Model outputs:(batch, 512, 512, 2)

  这个地方存在一些分歧,理论上讲两者应该对应,这样的话才能顺利的计算 loss 值,进行相应的梯度变换,但是对于这个问题由于标签数据已经有分类的结果 0 和 1,或者 0,1,2 等,这样就可以自动匹配到模型中的两个分类了,因此存在下面的对应关系。

  组合1

  • 标签数据:(batch, 512, 512, 1),通过 0 和 1 来区分不同的类
  • Model outputs:(batch, 512, 512, 1),最后一层是 sigmoid 函数,所有值都在 0~1 之间,loss 使用 binary_crossentropy
  • 对于这样的组合最终结果直接判断 >0.5 的就为 1,其他就为 0

  组合2

  • 标签数据:(batch, 512, 512, 1),通过 0 和 1 来区分不同的类
  • Model outputs:(batch, 512, 512, 2),最后一层是 softmax 函数,所有值都在 0~1 之间,loss 使用 sparse_categorical_crossentropy(因为是二分类问题,我认为用组合1的信息应该也没问题,不确定,可探索下)
  • 对于这样的组合最终结果是两个,取 argmax 的值来给两个类标记结果

  组合3

  • 标签数据:(batch, 512, 512, 2),分成两层,第一层,1 表示类别1,0 表示类别2;第二层正好相反,其实这两层的数据正好彼此互补
  • Model outputs:(batch, 512, 512, 2),最后一层是 softmax 函数,所有值都在 0~1 之间,loss 使用 sparse_categorical_crossentropy(因为是二分类问题,我认为用组合1的信息应该也没问题,不确定,可探索下)
  • 对于这样的组合最终结果是两个,取 argmax 的值来给两个类标记结果

  总结下,就是对于二分类问题,模型可以进行识别相应的信息,可以直接处理。

  个人浅显理解,可能有误!!!

posted on   McDelfino  阅读(1193)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2012-07-22 【061】Eclipse 4 Android 使用技巧
点击右上角即可分享
微信分享提示