10.16810/j.cnki.1672-514X.2020.09.007
基于BERT模型的图书表示学习与多标签分类研究
中文图书细粒度多标签分类的自动化,有利于促进图书的检索与学科的沟通.文章充分发挥BERT语言模型的微调特性,提出一种通过21类粗粒度分类微调语言模型,学习到更好的图书表示,进而实现细粒度分类的新策略.结果显示,在单标签的分类任务上,BERT模型的正确率分别较LSTM与Fasttext模型提升约4.9%与2.0%.KNN-ML对257类的细粒度多标签分类证明了前期微调的有效性.最佳情况下,有75.82%的图书细粒度类别恰好全部预测正确,92.10%的图书至少被正确预测了一个细粒度类别.因此可以得出结论,该系统有助于实现图书自动的细粒度归类,并帮助图书标引者补充合理的分类号.
中文图书、BERT模型、深度学习、微调策略、多标签分类
G254.1(图书馆学、图书馆事业)
本文系国家社科基金青年项目"面向汉语国际教育的智能测试技术研究"项目编号:18CYY029
2020-11-24(万方平台首次上网日期,不代表论文的发表时间)
共7页
38-44