当前位置:   article > 正文

无人驾驶_ins localization

ins localization

无人驾驶技术概述(一)

L4系统架构
在这里插入图片描述

硬件概述
Apollo为例
在这里插入图片描述

硬件

1.感知传感器
摄像头,激光雷达,毫米波雷达,超声波

2.定位传感器
IMU,200HZ
GNSS(GPS,北斗,伽利略)(分米级),无人车一般使用RTK(载波相位差分技术)定位(两个) ,10HZ

3.车载计算单元(IPC,工控机)

4.线控系统(整个车体)

软件

在这里插入图片描述

1)RTOS操作系统(对应到手机linux)
2)framework (ios,安卓)
3)软件模块
4)HMI(可视化)

3.1)高精地图 HD Map
特点:高维度,高精度(cm)
精确三维表征,如交叉路口布局和路标位置
地图语义信息,速度限制和左转车道开始位置
坐标系:WGS84,墨卡托坐标系
提供L4模块数据支持
提供精确的静态物体信息
辅助定位
缩小传感器ROI
计算道路导航信息
帮助识别车道确切中心线

3.2)定位 Localization
(i)
INS:惯性导航系统
IMU:获取自身状态(加速度和角速度)后通过状态矩阵递推下一时刻位置,如果没有校正信息的话,这种状态递推会随着时间不断累计误差,导致最终位置发散。
在这里插入图片描述
采用RTK
多加一个静止基站,同样也收到定位卫星信号。无人车与RTK相隔不太远的情况下,对二者之间的干扰信号用差分抹平
RTK通过较低的更新频率提供相对准确的位置信息,INS以较高的频率提供准确性较差的姿态信息。通过使用卡尔曼滤波整合两类数据获取各自优势,合并提供高准确性的实时信息。

(ii)几何定位
雷达,摄像头,高精地图
将检测数据与预先存在的高精度地图之间匹配,通过此可获得汽车在高精地图上全球定位和行驶方向
(迭代最近点(ICP)/直方图滤波)

3.3)感知 perception

四大基础任务:检测,分类,跟踪,分割
图像,点云,雷达反射值
学习方式:监督,强化
R-CNN,yolo,SSD
计算融合问题:
前融合:基础数据融合
后融合:不同传感器

3.4) 预测prediction

实时性和准确性
(i)基于状态进行预测
卡尔曼,粒子滤波
(ii)基于车道序列预测
(iii)行人预测

3.5) 决策规划 planning
导航线路规划,精细轨迹表述
(图模型或最优路径)
需要考虑体感和安全性

3.6) 控制 control
input:目标轨迹,车辆状态
output:方向盘,油门

控制算法:PID LQR MPC

无人驾驶技术概述
总结:定位,感知,预测,规划

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/213606
推荐阅读
相关标签
  

闽ICP备14008679号