赞
踩
最近在做序列标注项目的时候涉及到了Word Embedding和预训练词向量,发现对这三者的概念不清晰,以前实习用到的Word2Vec也忘的差不多了,故在这里简述三者之间的区别和联系,若有不正确之处还望大家不吝赐教,谢谢!
俗称“独热编码”,用0/1的方式表征词语,用于将自然语言转换为计算机可以理解的向量形式的一种转换方法。这种编码方式能够唯一地表示每一个字/词,这个one-hot向量的维度是所有不重复出现的字/词的字典,当前字/词只在某一个维度上向量表示为1,其余维度都为0,例如:
["中国", "美国", "日本", "美国"]--->[[1,0,0], [0,1,
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。