当前位置:   article > 正文

hugging face transformer文本分类运行_huggingface 文本分段

huggingface 文本分段

hugging face 团队的transformer又更新了,现在里面有distilroberta和distilbert和albert模型,这三个模型值得我们对比其他模型的差异。那么如何运行呢?

首先进入GitHub,搜索transformer

https://github.com/huggingface/transformers

进入这个repo

 

git clone 或者下载下来

 

接着用pycharm或其他编辑器打开这个repo

https://github.com/huggingface/transformers/tree/master/examples

选择examples里的run_gule.py

 

找到最下面的__main__,把所有代码剪切出来单独封装一个函数为main(),参数有两个model和dataset。

dataset是数据集的名字也是数据所在文件夹名称,model是model type。在这里,最重要的是命令行的argument,由于我们不想用命令行输入参数,这里可以在parser.add_argument中加入参数default,并设置required为False,这样就有了一个默认值。

接着我们设置data dir和训练batch大小和epoch次数。

 

  1. def main(model,task):
  2. parser = argparse.ArgumentParser()
  3. model_dir = model_to_dir[model]
  4. ## Required parameters
  5. data_dir = '/home/socialbird/Downloads/transformers-master/examples/glue_data/{}'.format(task)
  6. #task = 'RTE'
  7. train_bs = 8
  8. eps = 3.0
  9. parser.add_argument("--data_dir", default=data_dir, type=str, required=False,
  10. help="The input data dir. Should contain the .tsv files (or other data files) for the task.")
  11. parser.add_argument("--model_type", default=model, type=str, required=False,
  12. help="Model type selected in the list: " + ", ".join(MODEL_CLASSES.keys()))
  13. parser.add_argument("--model_name_or_path", default=model_dir, type=str, required=False,
  14. help="Path to pre-trained model or shortcut name selecte
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/264234
推荐阅读
相关标签
  

闽ICP备14008679号