赞
踩
python run_classifier.py \ --task_name=mytask \ --do_train=true \ --do_eval=true \ --data_dir=$DATA_DIR/ \ --vocab_file=$BERT_BASE_DIR/vocab.txt \ --bert_config_file=$BERT_BASE_DIR/bert_config.json \ --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt \ --max_seq_length=128 \ --train_batch_size=32 \ --learning_rate=2e-5 \ --num_train_epochs=3.0 \ --output_dir=/output
下面的几个参数:
do_train代表是否进行fine tune,
do_eval代表是否进行evaluation,
还有未出现的参数do_predict代表是否进行预测。
如果不需要进行fine tune,或者显卡配置太低的话,可以将do_trian去掉。max_seq_length代表了句子的最长长度,当显存不足时,可以适当降低max_seq_length。
运行脚本
./run.sh
1
运行的时间可能会有点久,视配置而定,会在output_dir下面生成一个eval_results.txt文件:
eval_accuracy = 0.8503984
eval_loss = 0.47183684
global_step = 6588
loss = 0.47183684
这样说明我们就运行成功了。在output_dir也会有fine-tune(微调)之后的模型文件。
————————————————
版权声明:本文为CSDN博主「DemonHunter211」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/kwame211/article/details/104305033
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。