赞
踩
本人划水参加了一把,初赛nlp赛道30名+进了复赛就没继续做了(大赛要求学生参与),最近比赛结束后Top1大神分享了方案,想着自己来复现一波看看,主要思路是“类似Prompt+fgm+swa+模型融合+伪标签”。参考大神方案用bert4torch进行了复现(仅复现“Prompt+fgm+swa“),并在dev上跑了指标对比,具体的方案细节还请以原作者的方案介绍为准。
顺丰光头大:2022搜狐校园算法大赛 NLP赛道第一名方案分享152 赞同 · 41 评论文章
复现方案 | 方案 | 指标 |
---|---|---|
Top1_github | 前2000为dev, 不使用swa, 有warmup, 无label_smoothing, 无fgm, 梯度累积=3, 无rdrop | Epoch 5/10: f1=0.7697 |
Top1_bert4torch复现1 | 参数同上 | Epoch 8/10: f1=0.7556 |
Top1_bert4torch复现2 | 参数同上+fgm+swa | Epoch 5/10: f1=0.7877 |
Epoch | Top1_github | Top1_bert4torch复现1 | Top1_bert4torch复现2 |
---|---|---|---|
1 | 0.728 | 0.7039 | 0.0274 |
2 | 0.7198 | 0.7327 | 0.7180 |
3 | 0.747 | 0.7531 | 0.7453 |
4 | 0.7625 | 0.7466 | 0.7594 |
5 | 0.7697 | 0.7464 | 0.7877 |
6 | 0.7638 | 0.7272 | 0.7726 |
7 | 0.7415 | 0.7471 | 0.7804 |
8 | 0.7593 | 0.7556 | 0.7829 |
9 | 0.7477 | 0.7455 | 0.7697 |
10 | 0.7466 | 0.7471 | 0.7620 |
bert4torch是一个基于pytorch的训练框架,前期以效仿和实现bert4keras的主要功能为主,特点是尽量简洁轻量,提供丰富示例,有兴趣的小伙伴可以试用,欢迎star。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。