赞
踩
embeding中词的总数设小了
在函数 nn.Embedding(vocab_size, embedding_dimension) 中
参数vocab_size 为你字典的总词数,如果在训练中有编号>len(字典)的数字出现,就会报这个错表示越界,这通常是因为先前设置nn.Embedding 的最大词数后,后续又加入新词导致的。怎么样是不是被我猜对啦?哈哈因为我也被它折磨了一下午。现在恭喜你已经解决这个问题啦可以继续开心炼丹啦。祝你学习快乐哟~
最后蟹蟹这个答主解开了我的疑惑
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。