当前位置:   article > 正文

【论文】 u-net_paddleseg中u-net网络的损失函数

paddleseg中u-net网络的损失函数

u-net

u-net convolutional networks for biomedcal image segmentation

一、概述

​ u-net 用于语义分割,sementic segmetation ,which is understanding an image at pixel level,即为图片中的每个像素指定类别标记。

二、网络模型

img

编码,解码结构

1 compacting path

捕获语义信息,使用经典的卷积池化,每一次池化时,特征通道倍数加倍。

2 expansive path

精确定位 ,上采样时,特征通道数目减半,本文中在上采样时添加了许多特征通道,已将语义信息传播到分辨率更高的层。

3 最后一个1*1conv

用于匹配64个特征向量到想要分的类数

4 cropping

很有必要,无Padding卷积时,会有许多边缘信息会损失,边缘信息通过镜像原始图片得到

5 skip connection

将收缩路径中的图片与上采样的图片拼接起来,我的理解是将不同维度的特征融合起来,收缩路径中的图片有更多的语义信息,扩张路径中的信息更利于定位

三、训练策略

1 上采样代替pooling

以提高输出图片的分辨率,为了更好的定位,将收缩路径得到的高分辨率特征与上采样得到的输出拼接在一起。

2 预测一个像素类别的方法

通过预测这个像素边缘的 patch 对该像素经行分类

3 对连接在一起的相同类进行分割

we proposed the use of a weighted loss ,when the separatinig backgroud labels between touching cells obtain a large weight in the loss funtion.

损失函数中,背景标签类获得更大的权重。

四、缺点

1 慢

对每个patch分开跑

2 冗余 redunctory

patch 有很多重叠的部分

3 精确定位与语义信息不可兼得

选择大的patch ,损失位置精度

选择小的patch,语义信息不够。

五 my confusion

1 下采样时,为什么分辨率变大

分辨率 即 像素的密度,单位面积内 像素点的多少

下采样过程中,max pooling 时将四个像素用最大的那一个代替,我的理解是分辨率变小。。。

2 损失函数中 增大背景标签权重

在分类细胞时,即连接在一起的相同类时,增大损失函数中 背景分割的权重,背景分割清楚了,更容易看见细胞的边界。

六、参考

1 对图像分割的理解

​ Mask = Function(I)

  1. 什么是图像分割问题呢? 简单的来讲就是给一张图像,检测是用框出框出物体,而图像分割分出一个物体的准确轮廓。也这样考虑,给出一张图像 I,这个问题就是求一个函数,从I映射到Mask。至于怎么求这个函数有多种方法。我们可以看到这个图,左边是给出图像,可以看到人和摩托车,右边是分割结果。
    图二

​ 为了让CNN提取出来的尺度能到原图大小,FCN网络利用上采样和反卷积到原图像大小。然后做像素级的分类。可以看图二,输入原图,经过VGG16网络,得到特征map,然后将特征map上采样回去。再将预测结果和ground truth每个像素一一对应分类,做像素级别分类。也就是说将分割问题变成分类问题
图三

9ibG9nLmNzZG4ubmV0L0Zvcm1sc2w=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

这里的融合是拼接在一起,不是对应元素相加 ,就是图片变厚了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/256782?site
推荐阅读
相关标签
  

闽ICP备14008679号