赞
踩
正确的语言表示是机器掌握通用语言的能力。像word2Vec或 Glove这样的上下文无关模型会为词汇表中的每个单词生成一个单词嵌入表示。例如,术语“起重机”在“天空中的起重机”和“举起重物的起重机”中具有精确的表示形式。上下文模型根据句子中的其他单词来表示每个单词。所以 BERT 是一个上下文模型,可以双向捕获这些关系。
BERT 基于预训练上下文表示方面的最新工作和巧妙想法,包括半监督序列学习、生成预训练、ELMo、OpenAI Transformer、
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。