当前位置:   article > 正文

手势识别1:HaGRID手势识别数据集使用说明和下载_hagrid数据集

hagrid数据集

手势识别1:HaGRID手势识别数据集使用说明和下载

目录

  HaGRID手势识别数据集使用说明和下载

1. HaGRID手势识别数据集说明

2. HaGRID数据集下载(约716GB)

3.Light-HaGRID数据集下载(约18GB)

(1)Light-HaGRID数据集说明

(2)Light-HaGRID数据集下载

4. Python实现手势识别Demo

5. Android实现手势识别 Demo

6.项目推荐:手部关键点检测


1. HaGRID手势识别数据集说明

本篇,我们将介绍一个超大的手势识别图像数据集 HaGRID (HAnd Gesture Recognition Image Dataset)。 HaGRID数据集种类非常丰富,包含one,two,ok等18种常见的通用手势, 标注了手势框和手势类别标签,可以用于图像分类或图像检测等任务。

HaGRID数据集数量特别大,有716GB的大小,包含 552,992 个 FullHD (1920 × 1080) RGB 图像。 此外,如果帧中有第二只手,则某些图像具有 no_gesture 类。 这个额外的类包含 123,589 个样本。 数据分为 92% 的训练集和 8% 的 测试集,其中 509,323 幅图像用于训练,43,669 幅图像用于测试。


更多手势识别,手部关键点检测的系列文章请参考:

 ​​


2. HaGRID数据集下载(约716GB)

官方下载地址: https://github.com/hukenovs/hagrid

由于数据量特别大,官方已经将手势数据集分成 18 个文件,可从以下链接下载并解压:

  • Tranval
GestureSizeGestureSize
call39.1 GBpeace38.6 GB
dislike38.7 GBpeace_inverted38.6 GB
fist38.0 GBrock38.9 GB
four40.5 GBstop38.3 GB
like38.3 GBstop_inverted40.2 GB
mute39.5 GBthree39.4 GB
ok39.0 GBthree238.5 GB
one39.9 GBtwo_up41.2 GB
palm39.3 GBtwo_up_inverted39.2 GB

train_val annotationsann_train_val

  • Test
TestArchivesSize
imagestest60.4 GB
annotationsann_test3.4 MB
  • Subsample

Subsample has 100 items per gesture.

SubsampleArchivesSize
imagessubsample2.5 GB
annotationsann_subsample153.8 KB

3.Light-HaGRID数据集下载(约18GB)

原始的HaGRID数据集太大,图片都是高分辨率(1920 × 1080)200W像素,完整下载HaGRID数据集,至少需要716GB的硬盘空间。另外,由于是外网链接,下载可能经常掉线。

考虑到这些问题,鄙人对HaGRID数据集进行精简和缩小分辨率,目前整个数据集已经压缩到18GB左右,可以满足手势识别分类和检测的任务需求,为了有别于原始数据集,该数据集称为Light-HaGRID数据集,即一个比较轻量的手势识别数据集。

(1)Light-HaGRID数据集说明

以下是Light-HaGRID数据集详细说明:

  • 共18个手势类别,每个类别约含有7000张图片,总共约123731张图片(12W);

  • 某些图片中存在二只手,这些图像手部被标注为 no_gesture 类
  • 原始图片都是高分辨率(1920 × 1080)200W像素,已经等比例缩小到20W像素
  • 原始标注文件*.json格式,为了方便训练,已经统一转换为VOC的数据格式(*.xml), 数据中Annotations文件夹保存了VOC的XML文件,JPEGImages文件夹是图像数据,这部分数据可直接用于训练目标检测模型。

  • 为了方便训练手势识别分类模型,Light-HaGRID数据集已经把每个标注框的手部区域都裁剪下来,并保存在Classification文件夹下,这部分数据可以用于训练手势识别分类模型

  • 生成数据集的Python脚本

需要安装: pip install pybaseutils

  1. # -*-coding: utf-8 -*-
  2. """
  3. @Author : panjq
  4. @E-mail : pan_jinquan@163.com
  5. @Date : 2022-08-30 09:45:44
  6. @Brief :
  7. """
  8. import os
  9. import numpy as np
  10. import cv2
  11. from tqdm import tqdm
  12. from pybaseutils import image_utils, file_utils
  13. from pybaseutils.maker import maker_voc
  14. def save_voc_dataset(bboxes, labels, image_file, image_shape, out_xml_dir):
  15. """
  16. 保存VOC数据集
  17. :param bboxes:
  18. :param labels:
  19. :param image_file:
  20. :param image_shape:
  21. :param out_xml_dir:
  22. :return:
  23. """
  24. basename = os.path.basename(image_file)
  25. image_id = basename.split(".")[0]
  26. objects = []
  27. for box, name in zip(bboxes, labels):
  28. objects.append({"name": name, "bndbox": box})
  29. xml_path = file_utils.create_dir(out_xml_dir, None, "{}.xml".format(image_id))
  30. maker_voc.write_voc_xml_objects(basename, image_shape, objects, xml_path)
  31. def save_crop_dataset(image, bboxes, labels, image_file, crop_root):
  32. """
  33. 裁剪检测区域
  34. :param image:
  35. :param bboxes:
  36. :param labels:
  37. :param image_file:
  38. :param crop_root:
  39. :return:
  40. """
  41. basename = os.path.basename(image_file)
  42. image_id = basename.split(".")[0]
  43. crops = image_utils.get_bboxes_image(image, bboxes, size=None)
  44. for i, (img, label) in enumerate(zip(crops, labels)):
  45. file = file_utils.create_dir(crop_root, label, "{}_{:0=3d}.jpg".format(image_id, i))
  46. cv2.imwrite(file, img)
  47. def convert_HaGRID_dataset(data_root, vis=True):
  48. """
  49. 将HaGRID转换为VOC和分类数据集
  50. :param data_root: HaGRID数据集个根目录
  51. :param vis: 是否可视化效果
  52. :return:
  53. """
  54. sub_list = file_utils.get_sub_paths(data_root)
  55. class_names = []
  56. for sub in sub_list:
  57. anno_file = os.path.join(data_root, sub, "{}.json".format(sub))
  58. annotation = file_utils.read_json_data(anno_file)
  59. image_list = file_utils.get_images_list(os.path.join(data_root, sub, "JPEGImages"))
  60. print("process:{},nums:{}".format(anno_file, len(image_list)))
  61. # 保存VOC格式的xml文件
  62. out_xml_dir = os.path.join(data_root, sub, "Annotations")
  63. # 裁剪并保存标注框区域的图片
  64. out_crop_dir = os.path.join(data_root, sub, "Classification")
  65. for image_file in tqdm(image_list):
  66. basename = os.path.basename(image_file)
  67. image_id = basename.split(".")[0]
  68. image = cv2.imread(image_file)
  69. anno = annotation[image_id]
  70. h, w = image.shape[:2]
  71. # [top left X pos, top left Y pos, width, height]
  72. bboxes = image_utils.rects2bboxes(anno['bboxes'])
  73. bboxes = np.asarray(bboxes) * [w, h, w, h]
  74. labels = anno['labels']
  75. class_names += labels
  76. image_shape = image.shape
  77. assert len(bboxes) == len(labels)
  78. if out_xml_dir:
  79. save_voc_dataset(bboxes, labels, image_file, image_shape, out_xml_dir)
  80. if out_crop_dir:
  81. save_crop_dataset(image, bboxes, labels, image_file, out_crop_dir)
  82. if vis:
  83. image = image_utils.draw_image_bboxes_text(image, bboxes, labels, color=(255, 0, 0))
  84. image_utils.cv_show_image("image", image, use_rgb=False)
  85. class_names = set(class_names)
  86. print(class_names)
  87. if __name__ == "__main__":
  88. data_root = "path/to/gesture/HaGRID/trainval"
  89. convert_HaGRID_dataset(data_root, vis=True)

这是可视化标注框的效果图: 

样图样图

(2)Light-HaGRID数据集下载

Light-HaGRID数据集包含的资源主要有:(下载地址:HaGRID手势识别数据集使用说明和下载

  1. 提供手势动作识别数据集,共18个手势类别,每个类别约含有7000张图片,总共123731张图片(12W+)
  2. 提供所有图片的json标注格式文件,即原始HaGRID数据集的标注格式
  3. 提供所有图片的XML标注格式文件,即转换为VOC数据集的格式
  4. 提供所有手势区域的图片,每个标注框的手部区域都裁剪下来,并保存在Classification文件夹下
  5. 可用于手势目标检测模型训练
  6. 可用于手势分类识别模型训练

下载地址:HaGRID手势识别数据集使用说明和下载


4. Python实现手势识别Demo

基于YOLOv5的手势识别系统(含手势识别数据集+训练代码)

Demo视频效果:

5. Android实现手势识别 Demo

Android实现手部检测和手势识别(可实时运行,含Android源码)

6.项目推荐:手部关键点检测

 更多项目《手部关键点检测(手部姿势估计)》系列文章请参考:

      

      

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/860326
推荐阅读
相关标签
  

闽ICP备14008679号