赞
踩
本文分别介绍摘要数据集,摘要分类,摘要架构,相关baseline。并介绍若干篇EMNLP2023论文,介绍其最新工作。
DUC/TAC 英文|数据集较小|适用于传统摘要方法的评估
Gigaword 英文|启发式规则构成|适用于深度神经网络方法
CNN/DailyMail 多句摘要数据|常用于生成式摘要方法
NYTAC 长度较短|可用于文本摘要、信息检索、信息抽取
ASNAPR 商品评论数据|可用于评论和情感的摘要
LCSTS 中文|新浪微博数据|短文本|深度网络摘要方法 --哈工大
NLPCC 中文,文本摘要、情感分类、自动问答等任务 --字节跳动
NLPCC分版本
2017,2020,2021
两个或两个以上的对话参与者
AMI 英|规模小|会议多模态数据|可用于抽取式与生成式摘要
SAMSum英|规模大|闲聊数据|人工标注|适用于生成式摘要
ICSI 英|规模较小|会议语料库
hugging face
微调T5 Small 做文本摘要
url:https://huggingface.co/Falconsai/text_summarization
评估指标 - Rouge
自然语言生成(NLG)评估指标与人类判断的相关性很差,作者探索ChatGPT是否是一个很好的NLG评估指标。
结论:实验结果表明,与以前的自动度量相比,ChatGPT在大多数情况下与人类判断达到了最先进或竞争的相关性。此外,我们发现ChatGPT评估器的有效性可能会受到元评估数据集创建方法的影响。对于很大程度上依赖于参考而产生的元评估数据集,ChatGPT评估器可能会失去其有效性。
评估大模型跨语言摘要(CLS)的 zero-shot 能力
作者通过引入一种结合NLP任务的新颖的多任务学习架构,扩展了跨语言科学新闻的研究。作者的方法是联合训练SIMCSUM中的两个高级NLP任务来生成跨语言科普摘要。
作者提出一种三阶段abstractive 句子方法 - Extract-Select-Rewrite (ESR),
作者将摘要分解为三个阶段:
(i)知识提取,我们使用现成的工具从文本中提取关系三元组;
(ii)内容选择,其中选择三元组的子集;
(iii)重写
4.2 实验结果
尽管预训练语言模型在自然语言理解任务中很流行,d但由于数据稀疏性问题,理解冗长的文本(如文档)仍然具有挑战性。
受人类通过阅读较短的文本来发展理解冗长文本的能力的启发,作者提出了一种简单而有效的基于摘要的数据增强方法summag,用于文档分类。
首先通过汇总原始训练样例的输入来获得目标文档分类任务的易于学习的样例,同时有选择地合并原始标签以符合汇总的输入。
然后,我们使用生成的伪示例来执行课程学习。
提供IMD数据集
作者针对
控制对话摘要大语言模型的语境学习:整体基准与实证分析
作者提出目前若干问题:
LLM在少数镜头Abstractive对话摘要背景下的表现仍未得到充分探索。本研究在几个镜头框架内评估了SAMSum数据集上的各种最先进的LLM。我们在受控环境(实体控制、长度控制和以人为中心的规划)和非受控环境中评估这些模型,并在少数镜头对话总结中建立一个全面的基准。我们的研究结果为对话摘要的质量和模型可控性提供了新的见解,为今后的对话摘要研究提供了重要的参考。
表1 为实验模型
表2 为实验数据集
表4 - 7 表示不同对比实验
本研究的一个局限性是,由于硬件的限制,只有小于10B个参数的llm被实验。针对这一问题,我们发布了评价代码,以便于后续的研究。
同时,本工作中的控制信号为oracle,这意味着我们假设用户提供了指示性关键字以包含在摘要中。
有从对话中提取关键字的自动方法(He et al, 2022),但这不是重点,因此不在本研究中讨论。
由于时间限制,我们采用GPT-3进行自动定性评价。虽然基于gpt的评估已被证明在某些评估任务中具有竞争力,但人工评估的必要性仍然存在。
对GPT-4摘要做出总结
作者开发了一个模型,利用源文献和引用文献中的信息来总结科学文献。
模型如下,未开源代码
作者通过在句子选择中添加一个束搜索过程和一个质心估计注意力模型来进一步改进它,提升性能。作者在几个多文档摘要数据集(包括多语言场景)进行验证。
实验结果如下
自然语言处理系统在解决竞争性辩论中发现的问题方面具有适用性。在竞争性辩论中,最重要的任务之一是辩手创造高质量的辩论案例。
作者证明了有效的辩论案例可以在论证语义知识图上使用约束最短路径遍历来构建。我们在一种名为“政策辩论”的美国竞争性辩论的背景下研究这种潜力,这种辩论已经有了一个名为“DebateSum”的大规模数据集。
多阶段长文档摘要是一种从长文档中捕获重要信息的灵活方法,它将长文档分成多个部分,每个部分用于在多个阶段生成粗摘要,然后使用最后一个粗摘要生成最终摘要。然而,即使粗汇总影响最终汇总,现有多阶段汇总中的粗汇总器也是使用对生成最终汇总无用的数据段进行粗训练的。
本文提出了一种多阶段长文档摘要的新方法。该方法首先生成新的片段对,确保它们都与生成最终的摘要相关。然后,我们将对比学习结合到粗摘要器的训练中,它试图在训练过程中最大化源片段和目标摘要之间的相似性。通过在六个长文档摘要数据集上的大量实验,我们证明了我们提出的方法不仅增强了现有的多阶段长文档摘要方法,而且达到了与最先进的方法相当的性能,包括使用大型语言模型进行长文档摘要的方法。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。