赞
踩
Pytorch,报错size mismatch for embedding_layer.weight: copying a param with shape torch.Size([X, X]),加载模型出错!!!
用LSTM分类时出现错误
词嵌入层69533与79115不匹配
最后发现是词嵌入字典个数出现错误
当前加载的是79115个单词,而load的模型是经过69533个单词训练的模型,修改成之前相同的数据,字典树就是79115和原来一样了,最后模型加载成功!!!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。