期刊专题

10.3969/j.issn.2095-2163.2021.05.004

面向图像语义分割任务的多级注意力蒸馏学习

引用
传统的蒸馏学习仅通过大网络对轻量网络进行单向蒸馏,不但难以从轻量网络的学习状态中得到反馈信息,对训练过程进行优化调整,同时还会限制轻量网络的特征表达能力.本文提出结合自身多级注意力上下文信息进行自我学习优化的方法(MAD,Multi Attention Distillation),以自监督的方式使自身成熟的部分约束不成熟部分,即浅层可以从深层中提取有用的上下文信息,让浅层特征学习高层特征的表达,从而提升网络的整体表达能力.使用轻量级网络ERFNet,DeepLab_V3在两个不同任务的数据集CULane、VOC上进行验证.实验结果表明,MAD可以在不增加推理时间的前提下,提升网络的特征提取能力,使ERFNet在CULane任务的F,-measure指标提升2.13,DeepLab_V3在VOC任务的mIoU指标提升1.5.

蒸馏学习;语义分割;注意力;卷积神经网络

11

TP391.41(计算技术、计算机技术)

天津市自然科学基金16JCQNJC04100

2021-08-16(万方平台首次上网日期,不代表论文的发表时间)

共7页

13-18,25

相关文献
评论
暂无封面信息
查看本期封面目录

智能计算机与应用

2095-2163

23-1573/TN

11

2021,11(5)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn

打开万方数据APP,体验更流畅