10.3969/j.issn.1674-2605.2021.02.007
基于YOLO v3和传感器融合的机器人定位建图系统
场景中的动态物体影响移动机器人定位算法的精度,使机器人无法建立蕴含场景信息的高精度地图,降低定位建图系统在复杂场景中的鲁棒性.针对目前主流动态SLAM技术受限于系统需求和硬件性能,无法兼顾移动机器人定位精度和系统实时性的问题,提出一种基于YOLOv3和传感器融合的机器人定位建图系统.首先,建立融合编码器和视觉传感器的机器人运动模型,求解移动机器人位姿;然后,利用深度学习技术剔除复杂场景中的动态物体,并针对YOLO v3目标检测网络特点,采用多视图几何方法进行性能优化;最后,经测试,本系统相比DS SLAM具有更优的轨迹精度,耗时更短.
传感器融合、目标检测、动态物体、定位、多视图几何
42
TP830.1(远动技术)
2021-07-05(万方平台首次上网日期,不代表论文的发表时间)
共6页
34-38,48