赞
踩
作者:禅与计算机程序设计艺术
孤岛模型被证明是单词生成模型的理想基础。马尔可夫链蒙特卡洛(MCMC)方法,在统计物理和材料科学领域均产生了重大影响。同样,在自然语言处理领域,深度学习技术也扮演着至关重要的角色,包括基于RNN、CNN、LSTM等的预训练语言模型、神经机器翻译、条件随机场、长短时记忆网络等,这些模型都取得了显著的效果。而在医疗问答系统中,自然语言理解和机器阅读理解组件的实现也逐渐成为关键任务,如何将两种学习模型结合起来,并对医疗数据进行有效处理,是关键之处。
Transformer-based Multi-Head Self-Attention Networks for Medical Question Answering System是一种基于Transformers模型的多任务学习框架。它使用多个Transformer层堆叠的方式,通过不同的任务掩码对模型进行适应,从而在问答匹配中同时兼顾信息抽取和自回归过程,达到最优性能。通过进一步调参和优化,可以提升模型的效果。
本文采用两步训练方式,首先训练问答匹配任务,再训练阅读理解任务。其中,医生专家和患者提问序列和答案序列分别作为输入,输出的是答案或问题对之间的相似性分数。阅读理解模块则负责从医生专家提问中抽取重要信息,提升医生专家自我描述能力。此外,本文还考虑到不同级别的需求对模型的学习目标的影响。
此外,本文作者团队还针对不同类型的问题提出了多种方案,如类别嵌入、单词嵌入、词向量组合、先验知识引入等,可以有效地改善模型的性能。
在实验评测方面,本文提供了四个具有代表性的任务,包括Hypothetical Reasoning、Clinical Fact Checking、Medical Triple
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。