赞
踩
BERT:双向transformer编码表达;
它是语言模型
双向的意思:如图,输入的每个字都接受了所有字的信息。经过注意力机制之后,序列里的每一个字,都含有这个字前面的信息和后面的信息
一、模型结构
二、BERT的预训练方式(建立语言模型)
2.1 完形填空式的预测MASKED LM(Masked language Model)
1)预训练输入
2)输出
2.2 BERT语言模型任务二:上下句关系的预测
三、如何获取word embedding vector
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。