赞
踩
pip install pytorch-pretrained-bert
data_dir | bert_model | task_name |
---|---|---|
输入数据目录 | 加载的bert模型,对于中文文本请输入’bert-base-chinese’ | 输入数据预处理模块,最好根据应用场景自定义 |
model_save_pth | max_seq_length* | train_batch_size |
模型参数保存地址 | 最大文本长度 | batch大小 |
learning_rate | num_train_epochs | |
Adam初始学习步长 | 最大epoch数 |
* max_seq_length = 所设定的文本长度 + 2 ,BERT会给每个输入文本开头和结尾分别加上[CLS]和[SEP]标识符,因此会占用2个字符空间,其作用会在后续进行详细说明。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。