当前位置:   article > 正文

Bert模型参数及运行脚本编写_bert模型evalaccuracy

bert模型evalaccuracy
python run_classifier.py \

 --task_name=mytask \

 --do_train=true \

 --do_eval=true \

 --data_dir=$DATA_DIR/ \

 --vocab_file=$BERT_BASE_DIR/vocab.txt \

 --bert_config_file=$BERT_BASE_DIR/bert_config.json \

 --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt \

 --max_seq_length=128 \

 --train_batch_size=32 \

 --learning_rate=2e-5 \

 --num_train_epochs=3.0 \

 --output_dir=/output
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

下面的几个参数:
do_train代表是否进行fine tune,
do_eval代表是否进行evaluation,
还有未出现的参数do_predict代表是否进行预测。
如果不需要进行fine tune,或者显卡配置太低的话,可以将do_trian去掉。max_seq_length代表了句子的最长长度,当显存不足时,可以适当降低max_seq_length。

运行脚本
./run.sh
1
运行的时间可能会有点久,视配置而定,会在output_dir下面生成一个eval_results.txt文件:

eval_accuracy = 0.8503984
eval_loss = 0.47183684
global_step = 6588
loss = 0.47183684

这样说明我们就运行成功了。在output_dir也会有fine-tune(微调)之后的模型文件。
————————————————
版权声明:本文为CSDN博主「DemonHunter211」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/kwame211/article/details/104305033

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/352707
推荐阅读
相关标签
  

闽ICP备14008679号