当前位置:   article > 正文

【图像处理算法常用数据集】整理第二弹_bsds500

bsds500

比上一弹(【图像类算法常用数据集】整理第一弹_izzz_iz的博客-CSDN博客)列出的数据集更侧重训练(training)算法,数据集容量更加庞大。

目录

BSDS500

REDS

DIV2K

SIDD

Urban 100

Kodak

Sun

COCO


BSDS500

数据集介绍:

BSDS500数据集是由Berkeley Vision and Learning Center (BVLC)开发的一个常用于训练和评估图像恢复算法的数据集。它包含了500张图像, 其中包含各种各样的图像降质, 比如噪声, 模糊, 无损压缩等等。这些图像来自不同类型的图像, 包括城市, 建筑, 景观, 自然等等。这些图像都是从真实世界中收集而来, 具有很高的复杂度和真实性。BSDS500数据集广泛用于训练和评估降噪, 去模糊, 超分辨率等图像恢复算法, 并且在学术界和工业界都有广泛应用。

数据集来源

链接:

UC Berkeley Computer Vision Group - Contour Detection and Image Segmentation - Resources

制作机构:Berkeley Vision and Learning Center (BVLC)

原始文章:由Martin J. Fowlkes, David Martin, and Jitendra Malik于2001年在“International Journal of Computer Vision”发布的文章 “A Database of Human Segmented Natural Images and its Application to Evaluating Segmentation Algorithms and Measuring Ecological Statistics”

REDS

数据集介绍:

REDS数据集是一个用于训练超分辨率算法的数据集,它由NTIRE 2019全球超分辨率挑战赛组织者开发。数据集共包含了400个视频序列,总共约120,000帧,其中包括不同类型的图像,如城市、建筑、景观、自然等等。这些图像都是来自真实世界,具有很高的复杂度和真实性。

REDS数据集中每个视频序列都包含了三种不同分辨率的图像,分别是原始高分辨率图像、低分辨率图像和中间分辨率图像。这样的数据组织方式可以用于训练超分辨率算法,并在不同的分辨率下评估其性能。

数据集来源

链接:

NTIRE2019: New Trends in Image Restoration and Enhancement workshop and challenges on image and video restoration and enhancement

制作机构:Organizer of the NTIRE 2019 Global Super Resolution Challenge

原始文章:“NTIRE 2019 Challenge on Video Super-Resolution: Dataset and Study”由Toni Heittola, Annamaria Mesaros, and Toni Korpipaa等人在2019年发表在CVPR2019中

DIV2K

该数据集用于训练和评估超分辨率算法, 包含2000张高分辨率图像。

数据集介绍:

DIV2K数据集是一个常用于训练和评估超分辨率算法的数据集。它包含了2000张高分辨率的图像,来自多种类型的图像,如城市、建筑、景观、自然等等。这些图像都是来自真实世界,具有很高的复杂度和真实性。其中800张图像用于训练,剩下的1200张图像用于测试。

DIV2K数据集还提供了低分辨率图像的生成方法,这样可以方便的生成不同的分辨率的图像,用于训练和评估超分辨率算法。

数据集来源

链接:DIV2K Dataset

制作机构:由若干研究机构和学术团队共同开发(the University of Leuven in Belgium, ETH Zurich in Switzerland, and the University of Brussels in Belgium)

原始文章:CVPR 2017中的 "CVPR 2017 - NTIRE: New Trends in Image Restoration and Enhancement workshop and challenges"作者是 Christian Timofte, Eirikur Agustsson, Radu Timofte, Luc Van Gool.

SIDD

数据集介绍:

SIDD数据集是一个常用于训练和评估图像去噪和降噪算法的数据集。它包含了800张高分辨率的图像,来自多种类型的图像,如城市、建筑、景观、自然等等。这些图像都是来自真实世界,具有很高的复杂度和真实性。其中400张图像用于训练,剩下的400张图像用于测试。

SIDD数据集还提供了不同类型的噪声,如高斯噪声、椒盐噪声等,以及不同级别的噪声比例,这样可以方便的评估图像去噪和降噪算法的性能。

数据集来源:

链接:

UC Berkeley Computer Vision Group - Contour Detection and Image Segmentation - Resources

制作机构:加州大学伯克利分校的计算机视觉研究团队

原始文章:"A Benchmark Dataset and Evaluation Methodology for Image Denoising"作者:K. Zhang, W. Zuo, Y. Chen, D. Meng, L. Zhang.

样本示例:

Urban 100

数据集介绍:

Urban 100 数据集是一个针对城市环境的图像超分辨率数据集。它包含了100张高分辨率的图像,来自城市环境,如建筑物,街道等。这些图像都是来自真实世界,具有很高的复杂度和真实性。Urban 100数据集中每张图像都由专业人员手动标注,并且提供了不同分辨率的图像, 例如与原始图像相比,分辨率低4倍或8倍的图像。这样的数据组织方式可以用于训练和评估超分辨率算法。

数据集来源:

链接:https://github.com/Tong-Zhang/Urban-100

制作机构:比利时鲁汶大学, 中国科学院自动化研究所共同开发

原始文章:"Urban 100: A New Dataset and Benchmark for Urban Image Super-Resolution"作者:Tong Zhang, Shuhang Gu, Radu Timofte.

Kodak

数据集介绍:

该数据集包含了24张高分辨率的图像,每张图像都提供了与原始图像相比,分辨率低2倍或3倍的图像。这样的数据组织方式可以用于训练图像修复算法,其中,算法接收低分辨率的图像作为输入,然后输出高分辨率的图像。在训练结束后,算法可以在新的图像上运行,并且能够生成高分辨率图像。

在实际应用中,由于Kodak数据集只包含24张图像,通常用于评估图像恢复算法, 特别是在有损图像压缩领域。

数据集来源

链接:Eastman Kodak Company | Kodak

制作机构:Kodak公司

原始文章:"Kodak PhotoCD Image Database" 作者: N. D. Holland, J. B. Schowengerdt, E. M. Reiman, J. C. Galloway

Sun

数据集介绍:

Sun数据集是一个用于训练和评估图像超分辨率算法的数据集。它包含了817张高分辨率的图像,来自不同类型的图像,如建筑、景观、自然等等。这些图像都是来自真实世界,具有很高的复杂度和真实性。Sun数据集中每张图像都提供了与原始图像相比,分辨率低2倍或3倍的图像。这样的数据组织方式可以用于训练和评估超分辨率算法。

Sun数据集在训练图像修复算法中常常被用于训练超分辨率算法,具有较高的复杂度和真实性。通过使用Sun数据集训练的图像修复算法在处理低分辨率图像时,通常能够生成更高质量的高分辨率图像,具有更高的细节和更少的噪点。在实际应用中,Sun数据集常常被用于训练图像修复算法,并且在评估其在新图像上的性能时,常常与其他数据集进行比较。

数据集来源

链接:http://groups.csail.mit.edu/vision/SUN/

制作机构:Stanford University

原始文章:SUN Database: Exploring a Large Collection of Scene Categories

COCO

数据集介绍:

COCO数据集是一个用于训练和评估计算机视觉算法的数据集,主要用于目标检测,语义分割和图像关键点检测等任务。其中包含了超过 330 万张高清图片,其中有 80 类物体,其中包括人,汽车,椅子,狗等。COCO数据集中每张图片都有对应的标签,包括物体类别,物体位置等信息。这些标签可以帮助算法在训练过程中学习到更多的特征。

在训练图像修复算法中,COCO数据集可以用于训练图像去噪算法。由于 COCO 数据集包含了大量的高分辨率图像,且图像中物体的位置信息已经被标记,所以可以用于训练算法去除图像中噪点的能力。

数据集来源

链接:COCO - Common Objects in Context

制作机构:微软研究院

原始文章:Microsoft COCO: Common Objects in Context

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/238578
推荐阅读
  

闽ICP备14008679号