当前位置:   article > 正文

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力...

开源avi数据集aerial violent individual dataset

该系统使用研究人员编制的“Aerial Violent Individual”数据集来训练。有25个人被召集来演示打斗、刺杀、射击、踢打和掐脖子等动作,得到2000张带注释的图像。每张图片上一般有2到10个人,因此,这个系统现在还不能用于处理非常大的人群。

c346988d633b8fcf16aaa8acb6e688ee3ba2e40b

AVI数据集中的暴力行为,包括掐脖子,拳打,脚踢,射击和刺杀

当系统需要处理的人数更少时,准确率最高。比如一张图片上只有一个人,系统的准确率为94.1%,但有5个人时,准确率就降到了84%,10个人时准确率降到79.8%。该论文的合作者Amarjot Singh说:“准确性下降主要是因为系统没有检测到其中的一些人。”

ce3bab29335e3d7edfef7d96c04e044f5745b4fc

很难判断这个无人机系统到底有多准确,因为它还没有在真实环境下对普通人群进行测试——测试者仅仅是研究团队招募来的志愿者。也就是说,它是用假装相互打斗的数据训练的,测试也是同样。而且,它是一个研究项目,还不是商业产品。

844874342575f06676e5d73e0b025ce71f2c73cf

左图展示了在人体上注释的14个身体关键点。 右图展示了Parrot AR 无人机捕获数据集中的图像以及几个注释关键点的特写。

当无人机在2米、4米、6米和8米高处时,输入系统的图像也被记录下来。这就能知道它离人群有多近。考虑到无人机飞行的声音很大,在真正的人群和斗殴行为中,这些无人机会在几百英尺之外,一定程度上降低了能见度。

844874342575f06676e5d73e0b025ce71f2c73cf

图:仅使用无人机在2m(第1排),4m(第2排),6m(第3排)和8m(第4排)四个不同高度记录的仅有一个暴力分子的无人机监视系统(DSS)

实时视频分析是使用两个Nvidia Tesla GPU实时地在Amazon的云服务上进行的,而无人机的内置硬件可以指挥其飞行动作。该技术是在本地机器上使用单个Tesla GPU进行训练的。

“该系统以每秒5帧到16帧的速度在空中实时拍摄的影像中检测到暴力分子,最多检测10人,最少2人。”论文指出。

争议:技术被恶意使用的风险

在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。为了减少法律上的麻烦,训练好的神经网络处理无人机在云中接收到的每帧图像,在处理完后就将图像删除。

“这增加了数据安全层,因为我们只是在需要的时候才把数据保存在云上,”剑桥大学博士生Singh说。

使用AI进行监视很令人关注。类似的面部识别技术,如亚马逊的Rekognition服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。

有趣的是,谷歌和Facebook最近也发表了一些研究,表明神经网络可以用来跟踪姿势,专家们也对神经网络如何用于数字监视或军事目的提出了担忧。现在,无人机监测暴力分子的研究证明了这是可能的。

研究人员使用 Parrot AR无人机(价格相当便宜)进行实验。运行也很便宜。这个实验在亚马逊的平台上运行,每小时花费0.1美元,所以系统经过训练后的运行不会太贵。

Singh承认,“人们可能会把这个系统用于恶意应用程序,但训练这样的系统将需要大量的数据和大量的资源。我希望有一些监督能够避免滥用这种技术。”

但他认为业余爱好者为了恶意的原因重新编程无人机的担忧是没有根据的。 “购买无人机确实很容易,但设计一种能够识别暴力个体的算法需要一定的专业知识,涉及设计不易获得的深层系统,我不认为这些系统很容易实现,”他说。

研究人员计划在两个音乐节期间在真实环境中测试他们的系统,并监测印度的国界。 如果表现良好,他们希望未来将其商业化。


原文发布时间为:2018-06-7

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”。

原文链接:CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/834179
推荐阅读
相关标签
  

闽ICP备14008679号