当前位置:   article > 正文

加载bert-base-uncased预训练模型

加载bert-base-uncased预训练模型

使用transformer加载预训练模型

  1. from transformers import BertTokenizer, BertModel
  2. tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
  3. model = BertModel.from_pretrained("bert-base-uncased")
  4. text = "Replace me by any text you'd like."
  5. encoded_input = tokenizer(text, return_tensors='pt')
  6. output = model(**encoded_input)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/348182
推荐阅读
相关标签
  

闽ICP备14008679号