赞
踩
BERT是在NLP领域中第一个预训练好的大型神经网络,可以通过模型微调的方式应用于后续很多下游任务中,从而避免了下游NLP应用需要单独构建一个新的神经网络进行复杂的预训练。这样既简化了下游NLP任务的模型训练,又提高了性能。
预训练和微调是BERT的两个使用步骤。
在11个NLP任务上取得了目前最好的结果。
BERT及其之后的一些工作,证明了在大量没有标号的数据集上进行模型训练的效果会比在少量有标号数据集上进行模型训练的效果更好。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。