当前位置:   article > 正文

搜出来的文本:基于BERT的文本采样

文本模型 采样

©PaperWeekly 原创 · 作者|苏剑林

单位|追一科技

研究方向|NLP、神经网络

从这一篇开始,我们就将前面所介绍的采样算法应用到具体的文本生成例子中。而作为第一个例子,我们将介绍如何利用 BERT 来进行文本随机采样。所谓文本随机采样,就是从模型中随机地产生一些自然语言句子出来,通常的观点是这种随机采样是 GPT2、GPT3 这种单向自回归语言模型专有的功能,而像 BERT 这样的双向掩码语言模型(MLM)是做不到的。

事实真的如此吗?当然不是。利用 BERT 的 MLM 模型其实也可以完成文本采样,事实上它就是上一篇文章所介绍的 Gibbs 采样。这一事实首先由论文《BERT has a Mouth, and It Must Speak: BERT as a Markov Random Field Language Model》[1] 明确指出。论文的标题也颇为有趣:“BERT 也有嘴巴,所以它得说点什么。”现在就让我们看看 BERT 究竟能说出什么来。

采样流程

首先,我们再次回顾上一篇文章所介绍的 Gibbs 采样流程:

Gibbs 采样:

初始状态为 ,t 时刻状态为

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/349118
推荐阅读
相关标签
  

闽ICP备14008679号