赞
踩
torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2, scale_grad_by_freq=False, sparse=False)
说白了就是num_embeddings(词典的词个数)不够大,为什么不够呢
按道理说,我们词嵌入的时候字典从0,1,…………n,映射我们所有的词(或者字)
num_embeddings = n,是够用的,但是我们考虑pad,pad默认一般是0,所以我们会重新处理一下映射字典1,2…………n+1
这时候 num_embeddings = n+1才够映射
所以+1就够了
然后就不会报错了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。