当前位置:   article > 正文

NLP--加载与使用预训练模型

NLP--加载与使用预训练模型

1.NLP中的常用预训练模型

 2.加载与使用预训练模型的步骤

2.1确定需要加载的预训练模型并安装依赖包 

2.2加载预训练模型的映射器tokenizer

2.3加载带/不带头的预训练模型

3.使用不同的模型获得输出结果 

3.1使用不带头的模型输出

3.2使用带有语言模型头的模型进行输出 


1.NLP中的常用预训练模型

  • BERT
  • GPT
  • GPT-2
  • Transformer-XL
  • XLNet
  • XLM
  • RoBERTa
  • DistilBERT
  • ALBERT
  • T5
  • XLM-RoBERTa

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/一键难忘520/article/detail/939381
推荐阅读
相关标签