当前位置:   article > 正文

AAAI 2024 | 抛弃编解码器架构!国防科大提出DiffusionEdge:用扩散模型做边缘检测效果更好...

边缘检测现存问题2024怎么解决

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

春节最后一天特惠活动!CVer学术星球新人和续费优惠券!为了感谢大家的支持,限时赠送10张50元新用户优惠券(下图左边二维码),10张20元老用户续费券(下图右边二维码),龙年坚持分享更多更好的工作,寒假不停更!助力你的科研和工作!顺利毕业升学,升职加薪!

6d3d47cea91c664d9ed796d15a1cfeef.jpeg

转载自:机器之心

现有的深度边缘检测网络通常基于包含了上下采样模块的编码器 - 解码器架构,以更好的提取多层次的特征,但这也限制了网络输出既准又细的边缘检测结果。

针对这一问题,一篇 AAAI 2024 上的论文给出了新的解决方案。

a6cad65c8c322aabca5eb4d55842f215.png

  • 论文题目:DiffusionEdge: Diffusion Probabilistic Model for Crisp Edge Detection

  • 作者:叶云帆(国防科技大学),徐凯(国防科技大学),黄雨行(国防科技大学),易任娇(国防科技大学),蔡志平(国防科技大学)

  • 论文链接: https://arxiv.org/abs/2401.02032

  • 开源代码: https://github.com/GuHuangAI/DiffusionEdge

国防科技大学 iGRAPE Lab 提出了首个用于二维边缘检测任务的扩散概率模型方法,通过学习迭代的去噪过程获得边缘结果图,去噪过程如图 1 所示。为了在保留最终性能的同时减少计算资源的消耗,该方法在隐空间中训练网络,并引入了不确定性蒸馏模块以更好的优化。同时,本方法还采用解耦架构来加速去噪过程,并提出了相应的自适应傅立叶滤波器来调整特征。基于这些设计,本方法得以用有限的资源进行稳定的训练,用更少的增强策略来预测清晰准确的边缘图。在四个公共基准数据集上的大量实验表明,本文提出的方法在准确度和粗细度上全面超越了其他方法。

eb624ad8db109bdbe298b3afcd6259fb.png

图 1 基于扩散概率模型的边缘检测过程与优势示例

本文的创新点包括:

1、提出了领域内第一个针对边缘检测任务的扩散模型 DiffusionEdge,无需任何后处理即可预测出更细更准确的边缘图。

2、针对扩散模型应用时的难点,设计了多种技术以确保方法能在隐空间中稳定学习,同时保留像素级的不确定性先验知识并自适应地过滤傅立叶空间中的隐特征。

3、在四个边缘检测公共基准数据集上开展的大量对比实验展示了 DiffusionEdge 在准确度和细度方面均具有卓越的性能优势。

相关工作

基于深度学习的方法通常采用包含上下采样的编解码结构集成多层特征 [1-2],或是整合多个标注的不确定性信息以提升边缘检测的准确度 [3]。然而,天然受限于这样的结构,其生成的边缘结果图对于下游任务来说太过粗厚而严重依赖后处理的问题仍然亟待解决。尽管许多工作已经在损失函数 [4-5] 和标签修正策略 [6] 方面做出了探索以使网络能输出更细的边缘,但本文认为该领域仍然需要一个可以不借助任何额外模块,就能直接满足准确度和细度的边缘检测器,而无需任何后处理步骤。

扩散模型是一类基于马尔可夫链的生成模型,通过学习去噪过程逐渐恢复目标数据样本。扩散模型在计算机视觉、自然语言处理和音频生成等领域都表现出了卓越的性能。不仅如此,通过将图像或是其他模态的输入作为额外条件时,其在感知任务中也表现出了巨大的潜力,例如图像分割 [7]、目标检测 [8] 和姿态估计 [9] 等。

方法描述

本文所提出的 DiffusionEdge 方法总体框架如图 2 所示。受以往工作的启发,该方法在隐空间中训练具有解耦结构的扩散模型,并将图像作为额外的条件线索输入。该方法引入了自适应傅里叶滤波器来进行频率解析,且为了保留来自多个标注者的像素级不确定性信息并减少对计算资源的要求,还以蒸馏的方式直接使用交叉熵损失优化隐空间。

725d457e425d1610dc58ef2365971782.png

图 2 DiffusionEdge 的整体结构示意

针对目前的扩散模型受到采样步数太多,推理时间太长等问题的困扰,本方法受 DDM [10] 的启发,同样使用解耦的扩散模型架构来加速采样推理过程。其中,解耦的前向扩散过程由显式的转移概率和标准 Wiener 过程的组合来控制:

2b0a7fa73e0e57a142f1f0d34af3d5b7.png

其中dca7d927359962e1b1a677658472fbc0.png07474997b5799cc0c4a93d9f32f55395.png分别代表初始边缘和噪声边缘,b43ccb9dbb9a5191e84a8532205043e7.png指的是反向边缘梯度的显式转换函数。与 DDM 类似,本文方法默认使用常量函数0ced0c3e57a3eefd64b66e90808ade8c.png,则其相应的逆过程可以被表示为:

f1322660da196c6c859061d777f73411.png

其中65f2e9c68c289720bf338c438afee5a1.png。为了训练解耦的扩散模型,该方法需要同时监督数据和噪声分量,因此,训练目标可以被参数化为:

4ab9f356291c2f6012e247c3246e43e6.png

其中a5d316f26a10263d678d4b871418aae0.png是去噪网络中的参数。由于扩散模型如果要在原始图像空间中训练的话会占用太多的计算成本,因此参考 [11] 的思路,本文提出的方法将训练过程转移到了具有 4 倍下采样空间大小的隐空间中。

如图 2 所示,该方法首先训练了一对自编码器和解码器的网络,该编码器将边缘标注压缩为一个隐变量,而解码器则用于从这个隐变量中恢复出原来的边缘标注。如此一来,在训练基于 U-Net 结构的去噪网络阶段,该方法便固定这一对自编码和解码器网络的权重,并在隐空间中训练去噪过程,这样可以大幅减少网络对计算资源的消耗,同时维持不错的性能。

为了提升网络最后的性能,本文提出的方法在解耦操作中引入了一种可以自适应地过滤掉不同频率特征的模块。如图 2 左下角所示,该方法将自适应的快速傅立叶变换滤波器(Adaptive FFT-filter)集成到了去噪 Unet 网络中,位置在解耦操作之前,以在频域中自适应过滤并分离出边缘图和噪声分量。具体来说,给定编码器特征 83e5ec902327cce6b1a70db9c66043fd.png ,该方法首先沿空间维度执行二维的傅里叶变换(FFT),并将变换后的特征表示为 9fa7aa6f54d03bda44001ad8eee76621.png 。紧接着,为了训练这个自适应频谱滤波模块,构造了一个可学习的权重图 c2e335fc9417de6c94a18d71af00cf61.png 并将其W乘以Fc。频谱滤波器可以全局地调整特定频率,并且学习到的权重可以适应不同数据集目标分布的不同频率情况。通过自适应地滤除无用成分,本方法通过快速傅里叶逆变换(IFFT)操作将特征从频域映射回空间域。最后,通过额外引入了来自的残差连接,避免完全过滤掉了所有有用的信息。上述过程可以由以下公式来描述:

ff8b4370332ed564450872d95721b772.png

其中9ef66ca05ff29911cd8ef5b7146b7dd0.png是输出特征,o表示哈达玛积(Hadamard Product)。

由于边缘和非边缘像素的数量高度不平衡(大多数像素都是非边缘的背景),参考以往的工作,我们同样引入不确定性感知的损失函数进行训练。具体来说,将作为第i个像素的真值边缘概率,对于第j个边缘图中的第i个像素,其值为ea664d09e9e7943b9d6b25775e28180a.png,则不确定性感知 WCE 损失的计算方式如下:

d094eb9bd4c481d22391133cf79b604d.png

其中b1beb5f1739a522cd027b01791de20b9.png,其中10b73ac6b06935cdc77b26775b730768.jpeg是决定真值标注中不确定的边缘像素的阈值,如果像素值大于 0 而小于此阈值,则此类模糊的,置信度不够高的像素样本将在后续的优化过程中被忽略(损失函数为 0)。c2728cc9bad4bf6859cb37e2152beada.jpeg6552628eee800c41d4be2b30b78cc5bd.jpeg分别表示真值标注边缘图中边缘和非边缘像素的数量。是用来平衡c34c8045a48f6aa9fba5bd0dfb012741.jpeg6c0f554afafdf4b0f7f6359d04f74b8b.jpeg的权重(设为 1.1)。因此,每个边缘图的最终损失函数计算方式为4b59508c514564626ce149956384e397.png

在优化过程中忽略模糊的低置信度的像素可以避免网络混乱,使训练过程更稳定的收敛,并提高模型的表现。然而,将二元交叉熵损失直接应用于在数值和空间上均未对齐的隐空间中是几乎不可能的。尤其是,不确定性感知的交叉熵损失中利用阈值891b16c246bcfaf88a601aa1199341e8.jpeg(一般从 0 到 1)来判断像素是否为边缘,这是从图像空间上定义的,而隐变量遵循正态分布并且具有完全不同的范围和实际意义。此外,像素级的不确定性很难与不同大小的编码和下采样的隐特征保持一致,二者是很难直接兼容的。因此,将交叉熵损失直接应用于优化隐变量不可避免地会导致不正确的不确定性感知。

另一方面,人们可以选择将隐变量解码回图像级别,从而可以直接使用不确定性感知交叉熵损失来直接监督预测出的边缘结果图。不幸的是,这种实现让反向传播的参数梯度通过了冗余的自编码器网络,使得梯度很难得到有效的传递。此外,自编码器网络中额外的梯度计算会带来巨大的 GPU 内存消耗成本,这违背了本方法设计一个实用的边缘检测器的初衷,很难推广到实际应用中。因此,本方法提出了不确定性蒸馏损失,可以直接优化隐空间上的梯度,具体来说,设重构出的隐变量为1283f8639949ee8e99025da158418234.png,自编码器网络的解码器是D,解码出的边缘结果是eD,本方法考虑基于链式法则直接计算不确定性感知的二元交叉熵损失6c1d79c73c0f50ce3d9115a9f8e46ef6.png的梯度,具体计算方式为:

0cdfa73a27ae23660807f3304d7b7772.png

为了消除自编码器网络的负面影响,本方法直接跳过了自编码器2adba902d8ff6915be4f0fdd66931774.png传递梯度并将梯度54ff7a550a7e8eae496c20dd658a8587.png的计算方式修改调整为:

463e705c92ec150bfa5a0b2024d52894.png

这样的实现方式大大降低了计算成本,并允许利用不确定性感知的损失函数直接在隐变量上优化。如此一来,再结合一个随步数t自适应变化的时变损失权重e5ec20b4e662bbc9b5ff820267d68106.png,本方法最终训练优化目标可以被表示为:

1b789ed6438f1c6851e322ccf61cc1f1.png

实验结果

本方法在四个领域内被广泛使用的边缘检测公共标准数据集上进行了实验:BSDS、NYUDv2、Multicue 和 BIPED。由于边缘检测数据标注比较难,标注数据量都比较少,以往的方法通常会使用各种策略来增强数据集。例如说,BSDS 中的图像通过水平翻转 (2×)、缩放 (3×) 和旋转 (16×) 进行增强,能够生成比原始版本扩大了 96 倍的训练集。以往的方法在其他数据集上使用的通用增强策略总结在了表格 1 中,其中 F 代表水平翻转,S 代表缩放,R 代表旋转,C 代表裁剪,G 代表伽马校正。不同的是,本方法仅需要使用随机裁剪的 320320 的图像块来训练所有数据。在 BSDS 数据集中,本方法则仅仅采用随机的翻转和缩放,其定量对比结果展示在了表 2 中。在 NYUDv2、Mu lticue 和 BIPED 数据集中,该方法仅需采用随机翻转训练。在使用更少增强策略的情况下,本方法在各个数据集,各个指标上的表现都优于之前的方法。通过观察图 3-5 的预测结果可以看出,DiffusionEdge 能够学习并预测出跟 gt 分布几乎一样的边缘检测结果图来,预测结果准确而清晰的优势对于有精细化需求的下游任务来说非常重要,也展示了其能直接应用于后续任务的巨大潜力。

9ffb5cfd4696c9779b3cc710b11cf832.png

表 1 以往方法在四个边缘检测数据集上使用的增强策略

855d6a6685185445353e550da2ab7528.png

表 2 不同方法在 BSDS 数据集上的定量对比

f5e5260587deff50a3e7ea44aef3d5eb.png

图 3 不同方法在 BSDS 数据集上的定性对比

7befda6638ea95127d136914851283d9.png

图 4 不同方法在 NYUDv2 数据集上的定性对比

6bfe9e68812f9b4a0b6b8ab8f2d51bfe.png

图 5 不同方法在 BIPED 数据集上的定性对比

1. 参考文献

[1] Xie, S., & Tu, Z. (2015). Holistically-nested edge detection. In Proceedings of the IEEE international conference on computer vision (pp. 1395-1403).

[2] Liu, Y., Cheng, M. M., Hu, X., Wang, K., & Bai, X. (2017). Richer convolutional features for edge detection. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 3000-3009).

[3] Zhou, C., Huang, Y., Pu, M., Guan, Q., Huang, L., & Ling, H. (2023). The Treasure Beneath Multiple Annotations: An Uncertainty-aware Edge Detector. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (pp. 15507-15517).

[4] Deng, R., Shen, C., Liu, S., Wang, H., & Liu, X. (2018). Learning to predict crisp boundaries. In Proceedings of the European conference on computer vision (ECCV) (pp. 562-578).

[5] Huan, L., Xue, N., Zheng, X., He, W., Gong, J., & Xia, G. S. (2021). Unmixing convolutional features for crisp edge detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 44 (10), 6602-6609.

[6] Ye, Y., Yi, R., Gao, Z., Cai, Z., & Xu, K. (2023). Delving into Crispness: Guided Label Refinement for Crisp Edge Detection. IEEE Transactions on Image Processing.

[7] Brempong, E. A., Kornblith, S., Chen, T., Parmar, N., Minderer, M., & Norouzi, M. (2022). Denoising pretraining for semantic segmentation. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 4175-4186).

[8] Chen, S., Sun, P., Song, Y., & Luo, P. (2023). Diffusiondet: Diffusion model for object detection. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 19830-19843).

[9] Wang, J., Rupprecht, C., & Novotny, D. (2023). Posediffusion: Solving pose estimation via diffusion-aided bundle adjustment. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 9773-9783).

[10] Huang, Y., Qin, Z., Liu, X., & Xu, K. (2023). Decoupled Diffusion Models with Explicit Transition Probability. arXiv preprint arXiv:2306.13720.

[11] Rombach, R., Blattmann, A., Lorenz, D., Esser, P., & Ommer, B. (2022). High-resolution image synthesis with latent diffusion models. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 10684-10695).

春节最后一天特惠活动!CVer学术星球新人和续费优惠券!为了感谢大家的支持,限时赠送10张50元新用户优惠券(下图左边二维码),10张20元老用户续费券(下图右边二维码),龙年坚持分享更多更好的工作,寒假不停更!助力你的科研和工作!顺利毕业升学,升职加薪!

947378a71ae8545dc18d71f44ab3d60b.png

扩散模型交流群成立

 
 
  1. 扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
  2. 一定要备注:研究方向+地点+学校/公司+昵称(如扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
  1. ▲扫码或加微信号: CVer444,进交流群
  2. CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!
  3. ▲扫码加入星球学习
 
 
  1. ▲点击上方卡片,关注CVer公众号
  2. 整理不易,请点赞和在看
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/364969
推荐阅读
相关标签
  

闽ICP备14008679号