赞
踩
这个问题我的产生是由于embedding层数不一致造成的,
self.word_embeddings = nn.Embedding(config.vocab_size,config.hidden_size,padding_idx=config.pad_token_id)
定义的self.word_embeddings的对应值为
(word_embeddings): Embedding(6930, 768, padding_idx=0)
而实际上vocab.txt的词汇表有9448个单词
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。