赞
踩
Pytorch错误定位:
跑代码时出现了以上错误,发现embedding的向量字典个数设置小于实际的类别数。
另外,使用GPU时对于代码错误的定位是有误的,需要在cpu模式下找到实际的错误定位。
首先看下Embedding层的参数,num_embeddings
要设置成字典的大小,但是要记住,一定是vocab_size + 1
,而不是vocab_size
,即要设置为字典大小+1
。参考:https://blog.csdn.net/Geek_of_CSDN/article/details/86527107
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。