赞
踩
Transformer 将注意力机制(Attention)发挥到了极致,不但以 encode-decode 形式在 seq2seq 任务中取得 state-of-the-art,并且仅以 encode 形式作为 BERT 的核心组件,打榜几乎所有 NLP 任务。
本 Chat 将会使用 Transformer 搭配 BERT 模型蒸馏实现指代消解,并详细解析核心代码,大家还将学习到:
阅读全文: http://gitbook.cn/gitchat/activity/5e7e1d555cb8c32b2e8bf19f
您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。