当前位置:   article > 正文

多任务学习:Transformer based MultiHead Self-Attention Networks_多任务transformer

多任务transformer

作者:禅与计算机程序设计艺术

1.简介

孤岛模型被证明是单词生成模型的理想基础。马尔可夫链蒙特卡洛(MCMC)方法,在统计物理和材料科学领域均产生了重大影响。同样,在自然语言处理领域,深度学习技术也扮演着至关重要的角色,包括基于RNN、CNN、LSTM等的预训练语言模型、神经机器翻译、条件随机场、长短时记忆网络等,这些模型都取得了显著的效果。而在医疗问答系统中,自然语言理解和机器阅读理解组件的实现也逐渐成为关键任务,如何将两种学习模型结合起来,并对医疗数据进行有效处理,是关键之处。
Transformer-based Multi-Head Self-Attention Networks for Medical Question Answering System是一种基于Transformers模型的多任务学习框架。它使用多个Transformer层堆叠的方式,通过不同的任务掩码对模型进行适应,从而在问答匹配中同时兼顾信息抽取和自回归过程,达到最优性能。通过进一步调参和优化,可以提升模型的效果。
本文采用两步训练方式,首先训练问答匹配任务,再训练阅读理解任务。其中,医生专家和患者提问序列和答案序列分别作为输入,输出的是答案或问题对之间的相似性分数。阅读理解模块则负责从医生专家提问中抽取重要信息,提升医生专家自我描述能力。此外,本文还考虑到不同级别的需求对模型的学习目标的影响。
此外,本文作者团队还针对不同类型的问题提出了多种方案,如类别嵌入、单词嵌入、词向量组合、先验知识引入等,可以有效地改善模型的性能。
在实验评测方面,本文提供了四个具有代表性的任务,包括Hypothetical Reasoning、Clinical Fact Checking、Medical Triple

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/545574
推荐阅读
相关标签
  

闽ICP备14008679号