赞
踩
u-net convolutional networks for biomedcal image segmentation
u-net 用于语义分割,sementic segmetation ,which is understanding an image at pixel level,即为图片中的每个像素指定类别标记。
编码,解码结构
捕获语义信息,使用经典的卷积池化,每一次池化时,特征通道倍数加倍。
精确定位 ,上采样时,特征通道数目减半,本文中在上采样时添加了许多特征通道,已将语义信息传播到分辨率更高的层。
用于匹配64个特征向量到想要分的类数
很有必要,无Padding卷积时,会有许多边缘信息会损失,边缘信息通过镜像原始图片得到
将收缩路径中的图片与上采样的图片拼接起来,我的理解是将不同维度的特征融合起来,收缩路径中的图片有更多的语义信息,扩张路径中的信息更利于定位
以提高输出图片的分辨率,为了更好的定位,将收缩路径得到的高分辨率特征与上采样得到的输出拼接在一起。
通过预测这个像素边缘的 patch 对该像素经行分类
we proposed the use of a weighted loss ,when the separatinig backgroud labels between touching cells obtain a large weight in the loss funtion.
在损失函数中,背景标签类获得更大的权重。
对每个patch分开跑
patch 有很多重叠的部分
选择大的patch ,损失位置精度
选择小的patch,语义信息不够。
分辨率 即 像素的密度,单位面积内 像素点的多少
下采样过程中,max pooling 时将四个像素用最大的那一个代替,我的理解是分辨率变小。。。
在分类细胞时,即连接在一起的相同类时,增大损失函数中 背景分割的权重,背景分割清楚了,更容易看见细胞的边界。
Mask = Function(I)
为了让CNN提取出来的尺度能到原图大小,FCN网络利用上采样和反卷积到原图像大小。然后做像素级的分类。可以看图二,输入原图,经过VGG16网络,得到特征map,然后将特征map上采样回去。再将预测结果和ground truth每个像素一一对应分类,做像素级别分类。也就是说将分割问题变成分类问题
9ibG9nLmNzZG4ubmV0L0Zvcm1sc2w=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
这里的融合是拼接在一起,不是对应元素相加 ,就是图片变厚了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。