赞
踩
Dataset来源:URFD
动作:30 個跌倒 + 40 個日常生活活動
該數據集包含 70 個(30 個跌倒 + 40 個日常生活活動)序列。使用 2 個 Microsoft Kinect 攝像頭和相應的加速度數據記錄跌倒事件。ADL 事件僅使用一台設備(相機 0)和加速度計記錄。使用 PS Move (60Hz) 和 x-IMU (256Hz) 設備收集傳感器數據。
Dataset来源:UCF101
动作:101 个动作类别
UCF101 是从YouTube 收集的真实动作视频的动作识别数据集,具有101 个动作类别。该数据集是 UCF50 数据集的扩展,它有 50 个动作类别。
拥有来自 101 个动作类别的 13320 个视频,UCF101 在动作方面给出了最大的多样性,并且在相机运动、物体外观和姿势、物体尺度、视点、杂乱背景、照明条件等方面存在较大变化,它是最迄今为止具有挑战性的数据集。由于大多数可用的动作识别数据集是不现实的,并且是由演员上演的,UCF101 旨在通过学习和探索新的现实动作类别来鼓励对动作识别的进一步研究。
Dataset来源:PKU-MMD:连续多模态人类行为理解的大规模基准
动作:41个日常动作(喝酒、挥手、戴眼镜_等)。) 和 10 个交互动作(拥抱、握手_等)。
PKU-MMD 是一种新的大规模连续多模态 3D 人类动作理解基准,涵盖广泛的複杂人类活动,具有良好的注释信息。PKU-MMD 包含 2 个阶段,用于难度越来越大的动作检测任务。阶段 1 是大幅度动作检测任务。阶段 2 是小幅度动作检测任务。我们的数据集还提供了多模态数据源,包括 RGB、深度、红外辐射和骨架。我们相信这个大规模数据集将有利于社区未来对动作检测的研究。
Dataset来源:动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集
动作:日常操作、医疗条件(跌倒)、相互作用/互动(如图所示)
“NTU RGB+D”包含 60 个动作类和 56,880 个视频样本。
“NTU RGB+D 120”通过添加另外60个类和另外57,600个视频样本来扩展“NTU RGB+D”,即“NTU RGB+D 120”总共有120个类和114,480个样本。
这两个数据集都包含每个样本的 RGB 视频、深度图序列、3D 骨骼数据和红外 (IR) 视频。每个数据集由三个 Kinect V2 相机同时捕获。RGB 视频的分辨率为 1920x1080,深度图和 IR 视频均为 512x424,3D 骨骼数据包含每帧 25 个身体关节的 3D 坐标。
Dataset来源:FALL-UP DATASET
动作:六种简单的人类日常活动(步行、站立、捡物、坐、跳和躺)和五种人类跌倒(用手向前跌倒、用膝盖向前跌倒、向后跌倒、空坐跌倒)椅子和侧倾)
所进行的活动涉及六种简单的人类日常活动(步行、站立、捡物、坐、跳和躺)和五种人类跌倒(用手向前跌倒、用膝盖向前跌倒、向后跌倒、空坐跌倒)椅子和侧倾)。这些类型的活动和跌倒是从对文献 [ 4 , 29 ] 中报导的那些的分析中选择的。跌倒发生在各种各样的情况和方式上 [ 30]。我们试图模拟绊倒、坐著和不同方向时跌倒的情况。我们选择了最常见的 ADL,尤其是捡起一个物体,因为人们常常将此活动误认为是跌倒。所有日常活动都在 60 秒内进行,除了在 30 秒内进行的跳跃和捡起一个物体是在 10 秒内完成一次的动作。在三个 10 秒週期试验中的每一个中都进行了一次跌倒。选择日常活动的时间窗口以至少涵盖类似研究中报告的持续时间 [ 13 , 14 , 28 ];而根据跌倒发生后 6 秒的安全期选择跌倒的窗口时间,如 [ 13]。对于所有这些活动,在坠落区域放置了一个床垫以防止受伤。每个活动由每个年轻的健康受试者进行 3 次(试验),没有任何损伤。表 5 总结了最终数据集中每个试验的活动和持续时间。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。