赞
踩
资源链接:https://www.bilibili.com/video/BV1r4411
这节课讲的是文本生成(是一个超级超级广的概念,几乎各个地方都可以牵扯到),NLG甚至每个方面都可以开创一个讲座
自然语言生成指的是我们生成(即写入)新文本的任何设置
NLG 包括以下成员:
之前我们所说的机器问答并不是NLG,因为他只是提取答案
一些疑问回答:语言模型/LM是根据目前已有的文本生成下一个词的模型,如果这么模型是使用RNN完成的,则称为RNN-LM。
件语言建模 是给定之前的单词以及一些其他输入 [公式] ,预测下一个单词的任务:
条件语言建模任务的例子
机器翻译 x=source sentence, y=target sentence
摘要 x=input text, y=summarized text
对话 x=dialogue history, y=next utterance
Recap: training a (conditional) RNN-LM
这是神经机器翻译中的例子,在训练期间,我们将正确的/我们想要的得到的目标句子输入解码器,而不考虑解码器预测的。这种培训方法称为Teacher Forcing(Teacher Forcing, 它是一种网络训练方法,对于开发用于机器翻译,文本摘要,图像字幕的深度学习语言模型以及许多其他应用程序至关重要。它每次不使用上一个state的输出作为下一个state的输入,而是直接使用训练数据的标准答案(ground truth)的对应上一项作为下一个state的输入),这就是如何训练有条件的RNN语言模型
Recap: decoding algorithms
问题:当我们有训练好的条件语言模型后,如何使用它生成文本?
答案:我们需要一个解码算法,解码算法是一种算法,用于从语言模型生成文本
几个星期前我们了解了两种解码算法:贪婪解码+束搜索
贪婪解码
一个简单的算法,在每一步中,取根据语言模型生成的最可能的单词(即argmax),将其用作下一个单词,并在下一步中将其作为输入提供,继续前进,直到您产生<END> 或达到某个最大长度
由于缺乏回溯,输出可能很差,例如,不合语法,不自然,荒谬。
束搜索
一种旨在通过一次跟踪多个可能的序列,找到高概率序列(不一定是最佳序列)的搜索算法
核心思想:在解码器的每一步,跟踪 k 个最可能的部分序列(我们称之为假设),k是光束大小(是一个超参数),达到某个停止标准后,选择概率最高的序列(考虑一些长度调整),样例如下(k=2,绿的的最终结果):
电视上也开始使用束搜索了
小的 k 与贪心解码有类似的问题(k = 1时就是贪心解码),不符合语法,不自然,荒谬,不正确
更大的 k 意味着您考虑更多假设,增加k可以减少上述一些问题,但是更大的k在计算上更昂贵,而且增加 k 可能会引入其他问题:
低beam size/k
高beam size/k
学生问题:可以自适应的调整k吗?没有明确解答,但是说论文中好像看到过相关介绍,认为是有可能的~
介绍的一个全新的解码方式 ,也称为纯采样,在每个步骤t,从概率分布Pt中随机抽样以获取你的下一个单词。
像贪婪的解码,但是是采样而不是argmax。(之所以称为纯采样的原因是将其和top-n采样区分开来)
在每个步骤 t ,从Pt的前 n 个最可能的单词中,进行随机采样(即若V = 10, n = 2,就相当于把选择范围限定在了概率排名前两个的单词,再在这两者之间做采样得到一个单词)
与纯采样类似,但截断我们的概率分布
此时,n = 1 是贪婪搜索,n = V 是纯采样,增加n以获得更多样化/风险的输出,减少n以获得更通用/安全的输出,这两者都更多比束搜索更有效率,不用跟踪多个假设
回顾:在时间步 t ,语言模型通过对分数向量使用 softmax 函数计算出概率分布Pt
你可以对 softmax 函数时候用温度超参数
提高温度τ: Pt变得更均匀
因此输出更多样化(概率分布在词汇中)
降低温度 τ : Pt变得更尖锐
因此输出的多样性较少(概率集中在顶层词汇上)
注意:softmax温度不是解码算法!
这是一种可以在测试时结合解码算法(如波束搜索或采样)应用的技术
贪心解码 是一种简单的译码方法;给低质量输出
束搜索 (特别是高beam大小)通过大量不同假设的高概率输出,往往比贪婪搜索提供更好的质量,但是如果 Beam 尺寸太大,可能会返回高概率但不合适的输出(如通用的或是短的)
抽样方法 来获得更多的多样性和随机性,适合开放式/创意代(诗歌,故事),Top-n个抽样允许您控制多样性
Softmax温度控制的另一种方式多样性,它不是一个解码算法!这种技术可以应用在任何解码算法。
(这个内容太大了,只会讲一部分)
任务:给定输入文本x,写出更短的摘要 y 并包含 x 的主要信息
摘要可以是单文档,也可以是多文档
在单文档摘要,有许多不同的但是是真正的数据集,他们可能源文档具有不同长度和风格
Gigaword数据集: 新闻文章的前一两句->标题(即句子压缩)
LCSTS (中文微博)数据集:段落->句子摘要
NYT, CNN/DailyMail数据集: 新闻文章->(多个)句子摘要
Wikihow (new!)数据集: 完整的 how-to 文章->摘要句子
句子简化 是一个不同但相关的任务:将源文本改写为更简单(有时是更短)的版本,相关数据集如下:
Simple Wikipedia数据集:标准维基百科句子 [公式] 简单版本
Newsela数据集:新闻文章 [公式] 为儿童写的版本
抽取式摘要/提取摘要/Extractive summarization
抽象式摘要/抽象概括/Abstractive summarization
Pre-neural摘要系统大多是抽取式的
类似Pre-neural MT,他们通常有一个通道(通常包括三部分,如下:)
我们需要一些句子评分功能来完成这个任务,句子得分函数可以根据
主题关键词,通过计算如tf-idf等和例如这句话出现在文档的哪里(例如高考作文,龙头凤尾猪肚,中间的可能重要性差一点)
图算法 将文档为一组句子(节点),每对句子之间存在边,边的权重与句子相似度成正比,使用图算法来识别图中最重要的句子
ROUGE (Recall-Oriented Understudy for Gisting Evaluation)
(详细内容可以通过该链接去查询,ROUGE: A Package for Automatic Evaluation of Summaries, Lin, 2004 http://www.aclweb.org/anthology/W04-1013)
类似于 BLEU,是基于 n-gram 覆盖的算法,不同之处在于:
BLEU是一个单一的数字,通常是n=1,2,3,4
通常会为每个n-gram单独得出ROUGE得分,最常使用的是ROUGE-1(基于单子节重叠)、ROUGE-2(基于二元重叠)、ROUGE-L(基于最长公共子序列重叠)
(更多详细信息可以阅读刚刚推荐的文章)
现在有一个python实现的ROUGE,如果做需要这个的项目,可以使用它,会节约一些时间的,地址如下:
Python implementation of ROUGE: https://github.com/google-research/google-research/tree/master/rouge
2015: Rush et al. publish the first seq2seq summarization paper,Rush发布了这个论文,形容单文档摘要摘要是一项翻译任务!,因此我们可以使用标准的seq2seq + attention NMT方法来完成,下图是它们做的和使用的,一个标准注意力模型(有点像句子压缩):
(详细内容可以查看:A Neural Attention Model for Abstractive Sentence Summarization, Rush et al, 2015 https://arxiv.org/pdf/1509.00685.pdf)
自2015年以来,有了更多的发展,使其/主题更容易复制,为了防止太多的复制,人们开始研究分层/多层次的注意力机制、更多的全局/高级 的内容选择(如何还记得管道前神经摘要,他们有不同内容的选择算法,可能注意力并不是选择的最好算法,我们需要一种更全面的全局战略,来选择什么是更重要的)、使用RL/强化学习直接最大化 ROUGE 或者其他离散目标(关系内容可能是摘要的长度)、复兴pre-neural 想法(例如图算法的内容选择),把它们变成神经系统
(上述说的很多方法,在NLG的其他领域或者说NLP深度学习其他领域也是实际可用的)
Seq2seq+attention systems 善于生成流畅的输出,但是不擅长正确的复制细节(例如罕见字)
复制机制使用注意力机制,使seq2seq系统很容易从输入复制单词和短语到输出,显然这是非常有用的摘要,也允许复制和创造给了我们一个混合了抽取/抽象式的方法
有几篇论文提出了复制机制的变体:
etc
如何执行复制机制的一个示例:
在每个解码器步骤中,计算这个概率Pgen(生成下一个字,而不是复制它的概率),并且想法是根据我们当前的上下文类型来计算的当前解码器的状态。一旦完成了上述内容,我们就想着要分配注意力了,然后将Pgen和分配的注意力的概率结合,最终分布是生成(又称“词汇表”)分布和复制(即注意)分布的混合(有一篇论文中注意力分配有两个方面,一个用于复制,一个用于参与),如下公式:
(其他内容可以参考:Get To The Point: Summarization with Pointer-Generator Networks, See et al, 2017 https://arxiv.org/pdf/1704.04368.pdf)
复制机制似乎是一个明智的想法,但是复制机制有不少大问题,首先汇总时他们复制太多,主要是长短语,有时甚至整个句子,一个原本应该是抽象的摘要系统,会坍塌为一个主要是抽取/挖掘的系统
另一个问题,他们不善于整体内容的选择,特别是如果输入文档很长的情况下,没有选择内容总体的战略
回忆:pre-neural摘要是不同阶段的内容选择和表面实现(即文本生成),标准seq2seq + attention 的摘要系统,这两个阶段是混合在一起的,每一步的译码器(即表面实现),我们也能进行词级别的内容选择(注意力),但是这是不好的:没有全局内容选择策略,一个解决办法:自下而上的汇总/摘要
首先我们有一个内容选择阶段:使用一个神经序列标注模型来将单词标注为 include / don’t-include
自下而上的注意力阶段:seq2seq + attention 系统不能处理 don’t-include 的单词(使用 mask )
简单但是非常有效!
更好的整体内容选择策略
减少长序列的复制(即更摘要的输出)
因为长序列中包含了很多 don’t-include 的单词,所以模型必须学会跳过这些单词并将那些 include 的单词进行摘要与组合
(两年前/2017年的一片论文)
使用 RL 直接优化 ROUGE-L,相比之下,标准的最大似然(ML)训练不能直接优化ROUGE-L,因为它是一个不可微函数
有趣的发现,使用RL代替ML取得更高的ROUGE分数,但是人类判断的得分越低(绿色红色箭头内容)。
论文中的一句话:“我们观察到,ROUGE得分最高的模型也生成了几乎不可读的摘要。”(指标虽然优化了,但是对于真正的任务并没有优化)(就像我们知道,BLEU并不是一个完美的类比,实际的翻译质量也是ROUGE也不说一个完美的类比)
混合模型最好(图中ML+RL,可以获得高分数和人类判别分数)
“对话”包括各种各样的设置
面向任务的对话
社会对话
由于开放式自由NLG的难度,pre-neural对话系统经常使用预定义的模板,或从语料库中检索一个适当的反应的反应
摘要过去的研究,自2015年以来有很多论文将seq2seq方法应用到对话,从而导致自由对话系统兴趣重燃
一些早期seq2seq对话文章包括
然而,很快他们就明白简单的应用标准seq2seq +attention的方法在对话(闲聊)任务中有严重的普遍缺陷,例子如下:
(下面将基于这些缺点进行说明)
问题:seq2seq经常产生与用户无关的话语
要么因为它是通用的(例如,“我不知道”)或者与主题无关
一个解决方案:不是去优化输入 S 到回答 T 的映射来最大化给定 S 的 T 的条件概率,而是去优化输入S 和回复 T 之间的最大互信息Maximum Mutual Information (MMI),从而抑制模型去选择那些本来就很大概率的通用句子(其实就是最好尝试改变训练目标而不是企图去优化当前目标下的算法),详细内容请查看:A Diversity-Promoting Objective Function for Neural Conversation Models, Li et al, 2016 https://arxiv.org/pdf/1510.03055.pdf
简单的测试时修复
条件修复(类似于后期干预,这是一种非常好的方法,可以从采样中获得细粒度的细节,然后编辑它以适应当前情况)
简单解决方案,直接在 Beam 搜索中禁止重复n-grams,通常非常有效
更复杂的解决方案,在seq2seq中训练一个覆盖机制,这是客观的,灵感来自于机器翻译的设置,可以防止注意力机制多次注意相同的单词,定义训练目标以阻止重复,如果这是一个不可微函数生成的输出,然后将需要一些技术例如RL来训练
2016年,李等人提出了一个seq2seq对话模式,学会将两个对话伙伴的角色编码为嵌,生成的话语是以嵌入为条件的
最近有一个闲聊的数据集称为PersonaChat,包括每一次会话的角色(描述个人特质的5个句子的集合),这提供了一种简单的方式,让研究人员构建 persona-conditional 对话代理
相关论文:
A Persona-Based Neural Conversation Model, Li et al 2016
Personalizing Dialogue Agents: I have a dog, do you have pets too?, Zhang et al, 2018
(下面内容,直到图片生成老师都没讲,这里只放课件内容了)
2017年,Lewis et al收集谈判对话数据集
详细内容请了解:Deal or No Deal? End-to-End Learning for Negotiation Dialogues, Lewis et al, 2017 https://arxiv.org/pdf/1706.05125.pdf
他们发现用标准的最大似然(ML)来训练seq2seq系统的产生了流利但是缺乏策略的对话代理,和Paulus等的摘要论文一样,他们使用强化学习来优化离散奖励(代理自己在训练自己),RL 的基于目的的目标函数与 ML 目标函数相结合
但是存在潜在的陷阱:如果两两对话时,代理优化的只是RL目标,他们可能会偏离英语
详细内容请了解:
在测试时,该模型通过计算展开在可能的响应之间进行选择:模拟对话的其余部分和预期的回报。
2018年,Yarats等人针对谈判任务提出了另一种对话模型,将策略层次与NLG层面分开
•每个话语xt都有一个对应的离散潜在变量zt
•zt学习成为一个很好的预测对话中的未来事件的预测器(未来的消息,策略的最终收获),但不是xt本身的预测器
•这意味着zt学会了表达xt对对话的影响,而不是 xt的话
•因此,zt将任务的策略层次与NLG方面分开。
•这对于可控性、可解释性、更容易学习的策略等都很有用。
详细内容请查阅:Hierarchical Text Generation and Planning for Strategic Dialogue, Yarats et al, 2018 https://arxiv.org/pdf/1712.05846.pdf
(这个图可以自己了解了解...因为没讲,我也不懂...)
一个来自斯坦福NLP的新数据集
任务:回答关于以一段对话为上下文的文本的问题
答案必须写摘要地(不是复制)
QA / 阅读理解任务,和对话任务
详细内容请了解:CoQA: a Conversational Question Answering Challenge, Reddy et al, 2018 https://arxiv.org/pdf/1808.07042.pdf
(差不多开始回归正课内容了)
神经讲故事的大部分工作使用某种提示来写故事
这和前两个不同,因为我们不关心系统在几个生成的句子上的性能
神经故事飞速发展:第一个故事研讨会于2018年举行,它举行比赛(使用五张图片的序列生成一个故事)
有趣的是,这不是简单的有监督的图像字幕。没有可供学习的配对数据。
问题:如何解决缺乏并行数据的问题
回答:使用一个通用的 sentence-encoding space
Skip-thought 向量是一种通用的句子嵌入方法,想法类似于我们如何学通过预测周围的文字来学习单词的嵌入,使用 COCO (图片标题数据集),学习从图像到其标题的 Skip-thought 编码的映射,使用目标样式语料库(Taylor Swift lyrics),训练RNN-LM, 将Skip-thought向量解码为原文,把两个放到在一起
Fan 等也提出了一个复杂的 seq2seq prompt-to-story 模型
convolutional-based,这使它的速度比RNN-based seq2seq更快
封闭的多头多尺度的self-attention
模型融合
细节老师没过多解释,想了解最新的文本生成的可以自己了解下~
结果令人印象深刻
但是
(剩下课件大部分内容都是略过了,直接进行NLG评估部分)
基于词重叠的指标(BLEU,ROUGE,METROR,F1,等等),我们知道他们不适合机器翻译,对于摘要而言是更差的评价标准,因为摘要比机器翻译更开放
不幸的是,与抽象摘要系统相比,提取摘要系统更受ROUGE青睐,对于对话甚至更糟,这比摘要更开放,类似的例子还有故事生成
橙色部分想我们展示:对话类和BLEU-2上人类得分之间相关性的一些图,但是我们根本没看到多少相关性,也就是 BLEU-2、Embedding average 和人类评价的相关性都不高,很不幸的是,还有一些其他论文表明了同样的事情,如下图:
困惑度怎么样?
困惑度捕捉到我们的LM有多强大?但是不会告诉你关于生成的任何事情(例如,如果你的困惑度是未改变的,解码算法是不好的)
简单说困惑度会告诉我们模型有多强,但是不会告诉我们模型有多好~
词嵌入基础指标?
主要思想:比较词嵌入的相似度(或词嵌入的均值),而不仅仅是重叠的单词。以更灵活的方式捕获语义。
不幸的是,仍然没有与类似对话的开放式任务的人类判断,产生很好的联系
(图中橙色部分显示了人类之间的相关性、判断以及基于词嵌入度量的某种平均值,看起来并不好,没有很大的相关性)
我们没有自动指标充分捕捉整体质量(即代表人类的质量判断),我们能做什么呢?
通常策略是:我们可以定义更多的集中自动度量来捕捉生成文本的特定方面,如下:(不会告诉我们模型多么准确,但是会告诉我们多么流利、风格是否正确等等)
虽然这些不衡量整体质量,他们可以帮助我们跟踪一些我们关心的重要品质
人类的判断被认为是黄金标准,当然,我们知道人类评价是缓慢而昂贵的
但是仅这些问题吗?还有金钱时间等因素
假如我们获得无限的人类的评估:实际上解决你所有的问题吗?
不!
因为进行人类有效评估非常困难,存在许多问题,例如:
Detailed human eval of controllable chatbots/可控聊天机器人的详细人类评估
这个博士生在聊天机器人项目上工作的个人经验(PersonaChat),她们研究了可控性(特别是控制所产生的话语,如重复,特异性,回应相关性和问题询问)
详细资料:What makes a good conversation? How controllable attributes affect human judgments, See et al, 2019 https://arxiv.org/pdf/1902.08654.pdf
如何要求人的质量判断?
我们尝试了简单的整体质量(多项选择)问题,例如:
主要问题:
最后,我们设计了一个详细的人的评估系统,该系统将影响聊天机器人整体质量的重要因素分离出来:
发现:
Possible new avenues for NLG eval?
目前有三个令人兴奋的发展趋势(我看不懂55555)
5年前,NLP+深度学习研究像一个狂野的西部,一切都是新的,充满了不确定性
现在(2019年),已经没有那么狂野了…但NLG似乎是剩下最疯狂的部分之一
在NLP+深度学习的早期,社区主要将成功的非机动车交通方法转移到NLG任务中。
现在,越来越多的创新NLG技术出现,针对非NMT生成环境。
越来越多(神经)NLG研讨会和竞赛,特别关注开放式NLG,例如:
这些对于组织社区提高再现性、标准化评估特别有用,进步的最大障碍仍然是评估
1、任务越开放,一切就越困难(评估变得困难,定义正在做的事情变得困难,告诉我们什么时候做的好了变得困难)
- 约束有时是受欢迎的
2、针对具体的改进目标可以更容易管理,而不是为了提高整体生成质量(例如为模型增加多样性,可能更容易实现和衡量,而不是因为评估问题而提高整体生成质量)
3、如果你使用一个LM作为NLG:改进LM(即困惑)最有可能提高生成质量(但也不是唯一提高生成质量的方法)
- 但这并不是提高生成质量的唯一途径
4、多看看我们的输出(一部分原因是没有任何单一指标可以告诉我们发生了什么,所以看看自己的输出以形成自己的意见,虽然比较耗时间,但是值得我们这么做)
5、你需要一个自动度量,即使它是不受影响的
- 您可能需要几个自动度量(之前也说过:越开放,可能需要越多的指标,例如流畅度、多样性等等)
6、如果我们做了人工评估,让问题尽可能的集中(如果开放性问题定义的非常模糊,可能别人也没法很好的评价)
7、在今天的NLP + 深度学习和 NLG中,再现性是一个巨大的问题。(NLG中更大)
- 请公开发布所有生成的输出以及您的论文(多分享,可能就是别人突变性成就的参考)
8、在NLG工作可能很令人沮丧(可能不知道怎么取得进步),但也很有趣
最后来一个主讲者聊天机器人的一些奇怪对话
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。