赞
踩
附赠自动驾驶学习资料和量产经验:链接
目前主流的思路是多传感器融合方案,以达到安全和感知信息可靠的效果,因此各大主机厂都是在增加传感器数量和升级控制器算力。
增加传感器数量必然带来对算力的升级要求。L3级别更是算力需求的分水岭,L3需要的AI计算力达到20TOPS,L4需要的AI计算力接近400TOPS,L5需要的AI计算力要求更为严苛,达到4000+TOPS,是L4级别的十倍量级。
L1-L5等级自动驾驶对算力需求值
但实际上这样的升级有几点需要思考:
(1) 是否存在冗余数据,导致对算力要求增加。比如,多个摄像头的overlap,周视与环视的overlap。解决前者可以先进行图像拼接再进行OD/FS/lane等检测,后者则可以采用超级摄像头,能同时实现近距离和中远距离的观测。我了解的华为在今年车展期间展示了超级鱼眼镜头,能够代替环视+周视,实现80米范围内至车身的感知。另外,感铠公司也出了一款超级镜头,代替环视+周视,实现了车载传感器(摄像头)的减法。
(2)在决策时,哪种传感器的优先级高。Tesla纠结于此,因此干脆只保留单个传感器感知,这就是后来我们熟知的纯视觉感知方案,即使无车道信息的乡间环境,夜晚环境依然效果很好。Tesla的做法也是实现了车载传感器的减法。
参考:
软件定义,数据驱动——2021中国智能驾驶核心软件产业研究报(亿欧智库https://www.iyiou.com/research)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。