赞
踩
CelebA
最大的公开的人脸图像数据集之一,名人脸属性数据集(CelebA)包含超过20万名名人的图像。
VGGFace2
最大的人脸图像数据集之一,VGGFace2包含从谷歌搜索引擎下载的图像。这些脸因年龄、姿势和种族而不同。每个受试者平均有362张图像。
AFLW2K3D
该数据集包含2000个面部图像,所有标注了3D人脸特征点。它是用来评估三维人脸特征点检测模型的。
PubFig
Public Figures Face Database(哥伦比亚大学公众人物脸部数据库)
Labeled Faces in the Wild Home (LFW)
LFW数据集是为了研究非限制环境下的人脸识别问题而建立的。这个数据集包含超过13,000张人脸图像,均采集于Internet。
每个人脸均被标准了一个人名。其中,大约1680个人包含两个以上的人脸。
这个集合被广泛应用于评价Face Verification算法的性能。
MDB-WIKI
IMDB-WIKI人脸数据库是有IMDB数据库和Wikipedia数据库组成,其中IMDB人脸数据库包含了460,723张人脸图片,而Wikipedia人脸数据库包含了62,328张人脸数据库,总共523,051张人脸数据库,IMDB-WIKI人脸数据库中的每张图片都被标注了人的年龄和性别,对于年龄识别和性别识别的研究有着重要的意义。
SVHN Cropped
来自斯坦福大学的街景门牌号(SVHN)是一个TensorFlow数据集,用来训练数字识别算法。它包含600,000个真实世界的图像数据样本,这些数据被裁剪成32 x 32像素。
ICDAR2011
ICDAR2013
HCL2000脱机手写汉字库
http://www.datatang.com/data/13885
北京邮电大学模式识别实验室发布的数据。HCL2000是目前最大的脱机手写汉字库,共有1000个人书写,除了汉字样本库外,还有一个对应的书写者信息库,记录了书写者的年龄、职业、文化程度等信息,用于研究相关影响因素。目前此数据库免费向研究者公开。
这是一份非常优秀的数据,是汉字识别的首选测试数据库。
CASIA中文手写数据集
http://www.datatang.com/data/13227
中科院自动化所发布的中文手写数据。包括187个人通过Walcom笔在线输入的手写文本。
CASIA英文手写数据集
http://www.datatang.com/data/13226
中科院自动化所发布的英文手写数据。包括134个人通过Walcom笔在线输入的手写文本。
USPS美国邮政服务手写数字识别库
http://www.datatang.com/data/11927
用于数字的手写识别。库中共有9298个手写数字图像(均为16*16像素的灰度图像的值,灰度值已被归一化),其中7291个用于训练,2007个用于测试。
手写数字MNIST数据集
http://www.datatang.com/data/3082
用于数字的手写识别。库中共有6万个训练集和1万个测试集。
MS COCO 数据集
由谷歌,FAIR, Caltech和更多的合作者制作,COCO是世界上最大的标记图像数据集之一。它用于目标检测、分割和图像描述任务。数据集包含330,000张图像,其中200,000张已被标注。在这些图像中有分布在80个类别中的150万个物体实例。
MS COCO数据集介绍以及下载链接:http://cocodataset.org/#home
Open Images Challenge 2019
包含大约900万幅图像,这个数据集是在线可用的最大的标注图像数据集。包含图像级标签、物体边框和物体分割掩码,以及视觉关系。
Open Images V4
这个数据集是上面提到的开放图像数据集的另一个迭代。V4有600个不同的物体类包含1460万个边框。边界框是由人工标注人员手动绘制的。
Pascal VOC数据集
VOC数据集是目标检测经常用的一个数据集,包括VOC2007和VOC2012
ImageNet数据集
是一个计算机视觉系统识别项目,是目前世界上图像识别最大的数据库,是美国斯坦福的计算机科学家,模拟人类的识别系统建立的。ImageNet数据集是按照WordNet架构组织的大规模带标签图像数据集。大约1500万张图片,2.2万类,每张都经过严格的人工筛选与标记。ImageNet类似于图片所有引擎。
其中,包括边界框的目标检测数据集,训练数据集包括500,000张图片,属于200类物体。由于数据集太大,训练所需计算量很大;类别数较多;造成了很少使用和目标检测的难度也很大。
ImageNet数据集介绍以及下载链接:http://www.image-net.org/
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。