10.14132/j.cnki.1673-5439.2018.05.001
基于深度卷积神经网络的弱监督图像语义分割
图像语义分割是计算机视觉领域重要识别任务,其目标是估计图像中的像素级目标类标签.最近,深度卷积神经网络(Deep Convolutional Neural Networks,DCNNs)已经成为解决图像语义分割的主流方法.然而,学习DCNNs需要大量的已标注训练数据(Ground Truth,GT),而现有数据集中的GT在数量和多样性方面因标注成本巨大而受到诸多限制.弱监督方法则考虑利用图像级标签和物体框之类的弱标注信息解决图像语义分割中的标注问题.相比于全监督的像素级图像标注,图像分类的GT(图像级标签)和目标检测的GT(物体框)更容易获得,因而可以直接借用为弱标注信息训练分类模型.弱监督语义分割的主要挑战在于标注信息的不完整性,即缺失了物体精确的边界信息.文中对基于DCNNs的弱监督语义分割方法进行了全面的阐述,描述了如何克服这些限制并讨论了提高其性能的可能研究方向.
语义分割、深度卷积神经网络、弱监督语义分割、图像标注
38
TN919.8;TP391
国家自然科学基金61876093,61881240048,61671253,61701252,61762021;江苏省自然科学基金BK20181393,BK20160908
2018-12-20(万方平台首次上网日期,不代表论文的发表时间)
共12页
1-12