当前位置:   article > 正文

Salient object detection 显著图检测

Salient object detection 显著图检测

GitHub - jiwei0921/SOD-CNNs-based-code-summary-: The summary of code and paper for salient object detection with deep learning.The summary of code and paper for salient object detection with deep learning. - jiwei0921/SOD-CNNs-based-code-summary-icon-default.png?t=N7T8https://github.com/jiwei0921/SOD-CNNs-based-code-summary-1.F3Net

f3net:fusion,feedback and focus for salient object detection_fnet: fusion, feedback and focus for salient objec-CSDN博客文章浏览阅读990次。这是篇显著性检测的文章,但是我看到他有在篡改检测领域的应用,目前的篡改检测领域核心思路就是分类和分割两种路子,而在文档篡改检测领域,主要还是以分割为主,加上阿里天池有连续开源了两拨数据集,还是大有裨益的。这篇文章,结构非常花哨,但是我实际觉得这种设计上花哨的东西,其实意义不大,但是本文虽然是在做显著性检测,但是loss提出的还挺有意思的。论文笔记——F3Net: Fusion, Feedback and Focus for Salient Object Detection_随机ID的博客-CSDN博客。.._fnet: fusion, feedback and focus for salient object detectionhttps://blog.csdn.net/u012193416/article/details/126644225?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522171020696616800185811092%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=171020696616800185811092&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~rank_v31_ecpm-17-126644225-null-null.nonecase&utm_term=%E6%98%BE%E8%91%97%E5%9B%BE%E6%A3%80%E6%B5%8B&spm=1018.2226.3001.44502.BASNet

BASNet:Boundary-aware salient object detection-CSDN博客文章浏览阅读1k次,点赞21次,收藏19次。这篇论文提出了一个预测-优化的框架,BASNet,以及一个新的针对边界感知显著目标检测的混合损失。1.为了捕获全局和局部的信息,提出了一个新的预测-优化网络,将unet的深度监督的encoder-decoder网络和一个新的残差模块结合,encoder-decoder将输入图像转换为一个概率图,而优化模块则通过学习粗糙的特征图和gt之间的残差来优化预测的输出.将全卷积应用到显著性检测,显著性检测的2个挑战,1.显著性检测主要是由整张图像的全局的明暗对比度定义而来,而不是局部或像素点的特征;https://blog.csdn.net/u012193416/article/details/135843589?spm=1001.2014.3001.55013.U2Net

U2net:Going deeper with nested u-structure for salient object detection_u2netp 最新模型-CSDN博客文章浏览阅读376次。图2中d用了inception结构,通过扩张卷积来扩大感受野,受unet启发,RSU用于捕捉阶内多尺度特征,RSU和残差连结最大的不同在于,RSU使用了一个类似于UNET的结构来替换单一流的普通卷积,并用一个权重层转换的局部特征来代替原始特征。U2net是一种为SOD设计的两级嵌套U结构,不使用图像分类的预训练骨干网络,在底层设计了一种新颖的Residual U-blocks,能够提取多尺度特征而不降低特征图分辨率,在顶层,有一个类似UNET的结构,每个极端都由RSU填充。交叉熵监督sup0-6,_u2netp 最新模型https://blog.csdn.net/u012193416/article/details/135953977?spm=1001.2014.3001.55014.Inspyrenet

Revisiting image pyramid structure for high resolution salient object detection-CSDN博客文章浏览阅读526次,点赞3次,收藏4次。SICA的整体操作遵循OCRNet的方法。拉普拉斯金字塔存储了每个尺度中低通滤波图像与原始图像之间的差异,可以将拉普拉斯图像解释为低通滤波信号的余项,即高频细节,我们重新设计我们的网络,通过构建拉普拉斯金字塔,集中于边界细节并从最小的阶段到其原始大小重新构建显著图,从最上层的阶段stage-3开始,将初始显著性图作为输入,并从拉普拉斯显著图中聚合高频细节。在多尺度编码器中使用了UACANet中的PAA-e来减少骨干特征图的通道数,并使用PAA-d在最小阶段(即stage3)上预测初始显著图。https://blog.csdn.net/u012193416/article/details/135969581?spm=1001.2014.3001.55015.M3Net

M3Net:Multilevel,Mixed and Multistage attention network for salient object detection-CSDN博客文章浏览阅读372次,点赞7次,收藏6次。为了促进多层特征之间,提出了Multilevel interaction block,引入了cross-attention机制以实现多层特征的交互,让高层特征引导低层特征以增强显著区域。多阶段解码器的细节,通过上采样方法将多级特征转换为相同分辨率,为了更好的整合特征融合后的显著信息,我们进一步进行混合注意力,上面这个图结合网络结构图,看,并不是F3那一层的mib直接入两个特征,后面两个接入三个特征,看b也发现,其实接入三个,也是两两一个,mib很简单就是一个cross-attention.https://blog.csdn.net/u012193416/article/details/136451368?spm=1001.2014.3001.5501

6.Tracer

7.RMFormer 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/260016
推荐阅读
相关标签
  

闽ICP备14008679号