赞
踩
最近在磕一人之力,刷爆三路榜单!信息抽取竞赛夺冠经验分享这篇文章,文章对关系抽取任务的解码方式做了简单的概述,在之前的文章中本人已经实现了指针标注网络,并对其进了优化(详情见改良后的层叠式指针网络,让我的模型F1提升近4%),因此这次把文中提到的多头选择和Biaffine关系矩阵构建的原论文拿出来研究了一下,并根据实际的关系抽取任务做了复现和改良。
本文主要涉及以下论文:
多头选择与关系抽取:
Joint entity recognition and relation extraction as a multi-head selection problem
Bert版多头选择:
BERT-Based Multi-Head Selection for Joint Entity-Relation Extraction
双仿射注意力机制:
Deep Biaffine Attention for Neural Dependency Parsing(基于深层双仿射注意力的神经网络依存解析)
新论文,采取Biaffine机制构造Span矩阵:
Named Entity Recognition as Dependency Parsing
本文只是记录自己的思考和实现,只对每篇论文核心部分做简单理解,可能有错误,感兴趣的同学建议直接看原文。
该网络结构将实体识别和关系抽取 joint 在一起,先通过在隐藏层上连接CRF,来抽取实体标签,并将实体标签信息embedding后与隐藏层一起传递给sigmoid_layer,来与其他实体特征进行交互抽取关系。
实体抽取部分比较好理解,对于多头选择部分,以下原文的几条核心公式:
理解如下:
当Token(j)为Subject的End 且 Token(i)为Object的End的概率分数为
非常简明的意思是:将Token(j)和Token(i)的Z(隐藏层➕label embedding)分别经过U,W线性变换后相加再加上偏置b,最后再进行一次整体线性变换V,得到的值经过sigmoid函数后即转换为对应的概率分数。
别急!后文会讨论多类别关系时,各个矩阵的维度关系。
Bert + Multi-head Selection,除了引入了Bert作为编码层外,其他创新点如下:
以三元关系抽取任务为例,我们多头选择该如何更好的理解和应用?功夫不负有心人我找大了夕大姐文章里一张图虽然和多头选择没多少关系,但能比较形象的展示Multi-head Selection的流程:
对于一个句子中的所有的token形成的SO组合,一共有N2种。假设我们的Token都已经经过了线性变化或者全连接层的洗礼,如图中对于每一个City,我们将其作为S,我们应该考虑其他所有token是否能和它形成SO关系,所以我们要计算每一个token和city经过V变换后的分数。
具体实现上也非常简单,我们可以构建一个NNHidden_size的token组合矩阵,经过一个P_num(关系类别总数)的Dense层后即可得到各个token之间在各个关系上的分值。
Subject = tf.keras.layers.Dense(hidden_size)(Encode) Object = tf.keras.layers.Dense(hidden_size)(Encode) ''' 将原token的encode经过两个不同的全连接层后,得到Subject,Object两个token序列 对应公式中的 U*zj 和 W*zi ''' Subject = tf.expand_dims(Subject,1) #TensorShape([batch_size, 1, MAX_LEN, hidden_size]) Object = tf.expand_dims(Object,2) #TensorShape([batch_size, MAX_LEN, 1, hidden_size]) Subject = tf.tile(Subject,multiples=(1,MAX_LEN,1,1)) #TensorShape([batch_size, MAX_LEN, MAX_LEN, hidden_size]) Object = tf.tile(Object,multiples=(1,1,MAX_LEN,1)) #TensorShape([batch_size, MAX_LEN, MAX_LEN, hidden_size]) concat_SO = tf.keras.layers.Concatenate(axis=-1)([Subject,Object]) #TensorShape([batch_size, MAX_LEN, MAX_LEN, 2*hidden_size]) output_logist = tf.keras.layers.Dense(P_num,activation='sigmoid')(concat_SO) #TensorShape([batch_size, MAX_LEN, MAX_LEN, P_num]) ''' 将组合后的 U*zj 与 W*zi 经过一个V全连接层,V.shape = (2*hidden_size,P_num) 对应公式中的 V*U*zj + V*W*zi = V(U*zj + W*zj + b) '''
样本构建部分: 我们需要将一个标注好的[ MAX_LEN, MAX_LEN, P_num ]的矩阵作为Multi-Head Selection 结果的 Y值。
关于样本标注问题:
一个实体包含多个字符且可能存在实体嵌套的问题,如“我是歌手的主演是阿瓜”,需要抽取的关系为“我是歌手的主演是阿瓜”、“阿瓜是歌手”。
我们并不需要将“我是歌手”的四个token和“阿瓜”的两个token在P=主演的得分上全都标注为1,因为在实体抽取部分我们对实体的头和尾进行了识别,我们仅需要将 S“手”和O“瓜”所对应的P=主演的分值标注为1即可。本例中即 [3,9,indenx of 主演] = 1即可。如果阿瓜还是个歌手,则 [9,3,indenx of 职业] = 1即可,因为对于不同类型的嵌套的实体,可能存在尾字符相同的情况极少,因此我们标注尾字符而不是首字符。
以上就是Multi-head Selection Model部分的核心思路和代码。
完整模型代码如下:
def build_model(pretrained_path,config,MAX_LEN,Cs_num,cs_em_size,R_num): ids = tf.keras.layers.Input((MAX_LEN,), dtype=tf.int32) att = tf.keras.layers.Input((MAX_LEN,), dtype=tf.int32) cs = tf.keras.layers.Input((MAX_LEN,), dtype=tf.int32) config.output_hidden_states = True bert_model = TFBertModel.from_pretrained(pretrained_path,config=config,from_pt=True) x, _, hidden_states = bert_model(ids,attention_mask=att) layer_1 = hidden_states[-1] start_logits = tf.keras.layers.Dense(Cs_num,activation = 'sigmoid')(layer_1) start_logits = tf.keras.layers.Lambda(lambda x: x**2,name='s_start')(start_logits) end_logits = tf.keras.layers.Dense(Cs_num,activation = 'sigmoid')(layer_1) end_logits = tf.keras.layers.Lambda(lambda x: x**2,name='s_end')(end_logits) cs_emb = tf.keras.layers.Embedding(Cs_num
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。