当前位置:   article > 正文

YOLOv5改进策略|YOLO模型优化|Slowfast 和 YOLOv5 检测器 自动驾驶、车辆识别、车牌识别、车道识别、行人识别_yolo 自动驾驶

yolo 自动驾驶

订阅专栏后私信(留下联系方式)获取完整源码+远程部署

目录

ROAD:多标签、多任务数据集

贡献

概要

相关工作

自动驾驶数据集

动作检测数据集

 在线动作检测

数据集

多标签基准

 数据收集

 标注流程

任务

定量总结

基线和挑战

3D-RetinaNet架构

通过代理评分在线管生成

 道路挑战

实验

 实施细节

ROAD上的实验结果

 三分法:模拟天气变化

各种任务的结果

 不同天气条件下的结果

 联合与边际乘积

结论


        最近几年,自动驾驶(或者机器人辅助驾驶)已成为一个快 速发展的研究领域。全自动驾驶汽⻋的竞赛促使许多大公司, 如谷歌、丰田和福特,开发了自己的概念机器人汽⻋[1]、[2]、 [3]。尽管自动驾驶汽⻋被广泛认为是人工智能实际应用的主要 开发和测试场,但安全性、道德、成本和可靠性方面仍然存在令 人担忧的主要原因[4]。特别是从安全⻆度来看,智能汽⻋需要 强有力地解释与他们共享环境的人类(驾驶员、行人或骑自行⻋ 者)的行为,以便应对他们的决策。态势感知因此,了解其他道 路使用者行为的能力对于自动驾驶⻋辆(AV)的安全部署至关重 要。

最新一代的机器人汽⻋配备了一系列不同的传感器(即激光 测距仪、雷达、摄像头、GPS),以提供有关道路上发生的情况 的数据[5]。然后融合如此提取的信息以建议⻋辆应如何移动 [6]、[7]、[8]、[9]。然而,一些作者认为,视觉对于自动驾驶汽 ⻋来说是一种足够的感知能力,可以在其环境中导航,并得到人 类这样做的能力的支持。无需征召我们自己作为后一种观点的支持者,在本文中我们考虑了以下背景:基于 视觉的自动驾驶[10]来自安装在⻋辆上的摄像头以流媒体、在线 方式捕获的视频序列。

虽然检测器网络 [11] 通常经过训练以促进道路场景中的物体 和演员识别,但这只是让⻋辆“看到”周围的事物。这项工作的 理念是,强大的自动驾驶能力需要以语

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/984979
推荐阅读
相关标签
  

闽ICP备14008679号