期刊专题

10.3969/j.issn.1003-0107.2021.07.005

基于预训练模型的大规模常识自动获取技术

引用
针对大规模中文常识获取困难且费时费力的问题,该文提出了一种基于预训练模型的大规模常识自动获取技术,主要优点为:(1)基于BERT模型,采用完形填词式常识问答手段,实现预训练模型中蕴含隐性常识的自动获取;(2)使用基于Transformer的机器翻译模型,实现高效的无监督式英文常识转换为中文常识.在构建的常识问题集上进行实验表明,该方法获取到的中文常识知识合理可信,符合人类认知,是大规模中文常识自动获取的有效途径.

常识获取;预训练模型;BERT模型;Transformer模型;机器翻译

TP183(自动化基础理论)

2021-08-20(万方平台首次上网日期,不代表论文的发表时间)

共4页

5-8

相关文献
评论
暂无封面信息
查看本期封面目录

电子质量

1003-0107

44-1038/TN

2021,(7)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn

打开万方数据APP,体验更流畅