基于双目视觉的可行驶区域分割方法
为提高自动驾驶背景下视觉环境感知任务的鲁棒性,提出了一种基于双目视觉和可行驶区域剖面建模方法的非结构化可行驶区域分割算法.为改善视差计算的鲁棒性,以半全局块匹配(SGBM)算法框架为基础,改进其代价计算步骤提出了一种融合相对梯度和AD-Census变换的匹配代价计算方法,经过代价聚合求得视差图.区域分割过程先统计视差图的垂直方向差异直方图,以此作为数据源提出一种描述可行驶区域剖面的抛物线模型,采用动态规划算法和随机采样一致性算法(RANSAC)对模型参数求解过程进行全局优化,经后处理过程实现可行驶区域的分割.通过KITTI数据集和实车采集数据验证,算法达到了19.8 fps的速度和92%以上的分割准确率.
自动驾驶、双目视觉、环境感知、立体匹配、可行驶区域分割
42
TP391(计算技术、计算机技术)
北京市属高等学校人才强教计划项目038000543117004;北京市教委基金项目JJ002790200802
2019-12-03(万方平台首次上网日期,不代表论文的发表时间)
共6页
138-143