当前位置:   article > 正文

使用未标注的数据训练BERT_bert-base-chinese模型怎么对没有标签的测试集进行测试

bert-base-chinese模型怎么对没有标签的测试集进行测试

BERT开源代码:GitHub - google-research/bert: TensorFlow code and pre-trained models for BERT

该链接中给出了训练示例sample_text.txt,文本如下:

上述是每行一个句子,文档之间有空行。

①执行命令得到预训练数据:

  1. python create_pretraining_data.py \
  2. --input_file=sample_text.txt \
  3. --output_file=tf_examples.tfrecord \
  4. --vocab_file=BERT_BASE_UNCASED_DIR/vocab.txt \
  5. --do_lower_case=True \
  6. --max_seq_length=128 \
  7. --max_predictions_per_seq=20 \
  8. --masked_lm_prob=0.15 \
  9. --random_seed=12345 \
  10. --dupe_factor=5
  11. vocab_file:词表的位置,这里使用的是BERT_BASE_UNCASED(安装参考https://blog.csdn.net/zcs2632008/article/details/125672908?spm=1001.2014.3001.5502
  12. max_seq_length:序列最大长度
  13. max_predictions_per_seq:进行掩码的最大数量(序列最大长度*掩码率)
  14. masked_lm_prob:掩码率

②训练BERT

执行命令:

  1. python run_pretraining.py \
  2. --input_file=tf_examples.tfrecord \
  3. --output_dir=pretraining_output \
  4. --do_train=True \
  5. --do_eval=True \
  6. --bert_config_file=BERT_BASE_UNCASED_DIR/bert_config.json \
  7. --init_checkpoint=BERT_BASE_UNCASED_DIR/bert_model.ckpt \
  8. --train_batch_size=32 \
  9. --max_seq_length=128 \
  10. --max_predictions_per_seq=20 \
  11. --num_train_steps=20 \
  12. --num_warmup_steps=10 \
  13. --learning_rate=2e-5

得到结果:

  1. global_step = 20
  2. loss = 0.35468453
  3. masked_lm_accuracy = 0.9327252
  4. masked_lm_loss = 0.35498306
  5. next_sentence_accuracy = 1.0
  6. next_sentence_loss = 0.00041163983
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/872487
推荐阅读
相关标签
  

闽ICP备14008679号