赞
踩
·阅读摘要: 两篇论文,第一篇发表于《图学学报》,《图学学报》是核心期刊;第二篇发表于《北京印刷学院学报》,《北京印刷学院学报》没有任何标签。
·参考文献:
[1]林佳瑞,程志刚,韩宇,尹云鹏.基于BERT预训练模型的灾害推文分类方法[J/OL].图学学报:1-8[2022-01-17].http://kns.cnki.net/kcms/detail/10.1034.T.20220106.1131.002.html.
[2]林德萍,汪红娟.基于BERT和RNN的新闻文本分类对比[J].北京印刷学院学报,2021,29(11):156-162.DOI:10.19461/j.cnki.1004-8626.2021.11.044.
不同的期刊所登论文的质量还是蛮大的。第一篇写的有理有据,特别是实验设计那里说的很清楚。第二篇就是介绍了Bert,根本没有说它是如何利用Bert做实验的,论文质量很差。
主要是对Bert进行微调,再接上不同的分类器模型,应用于Kaggle上面的一个灾害推文数据集。
最终作者得出的结论是:1)基于BERT预训练模型的深度学习方法比普通神经网络要好;2)是否加入dropout层及批量大小对本任务的模型性能有一定影响。3)用代表整个句子的词向量作为后续分类算法的输入效果最优;
本文什么都没说。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。