基于深度学习的无人车夜视图像语义分割
为了增强无人车对夜视图像的场景理解,在夜间模式下更快更精确地探测和识别周围环境,将深度学习应用子夜视图像的场景语义分割,提出了一种基于卷积-反卷积神经网络的无人车夜视图像语义分割方法.在传统的卷积神经网络中加入反卷积网络,构建卷积-反卷积神经网络,无需手工选取特征.通过像素到像素的学习和训练,得到图像语义分割模型,可直接用该模型预测夜视图像中每个像素所属的场景语义类别,实现无人车夜间行驶时的环境感知.实验结果表明,该方法具有较好的准确性和实时性,平均IU达到68.47.
夜视图像、语义分割、深度学习、反卷积、无人车
38
TN219(光电子技术、激光技术)
国家自然科学基金项目61375007;上海市科委基础研究项目15JC1400600
2017-07-13(万方平台首次上网日期,不代表论文的发表时间)
共8页
421-428