当前位置:   article > 正文

国内HuggingFace,预训练模型镜像使用_huggingface国内源

huggingface国内源

Hugging Face Transformers 是自然语言处理领域的重要开源项目,提供了基于通用架构(如 BERT,GPT-2,RoBERTa)的数千个预训练模型,并提供了 PyTorch 和 TensorFlow 的良好互操作性。

我们镜像了 Hugging Face Model Hub,为国内用户下载预训练模型数据提供便利。

使用方法
注意:transformers > 3.1.0 的版本支持下面的 mirror 选项。

只需在 from_pretrained 函数调用中添加 mirror 选项,如:

AutoModel.from_pretrained('bert-base-uncased', mirror='tuna')
目前内置的两个来源为 tuna 与 bfsu。此外,也可以显式提供镜像地址,如:

AutoModel.from_pretrained('bert-base-uncased', mirror='https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models')
或者直接去清华镜像上下载:
https://mirrors.tuna.tsinghua.edu.cn/hugging-face-models/hfl/


版权声明:本文为CSDN博主「WBwhiteBeard」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/A_zhangpengjie/article/details/110003580

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/盐析白兔/article/detail/196895
推荐阅读
相关标签
  

闽ICP备14008679号