当前位置:   article > 正文

中文实体关系抽取实践_中文的实体关系抽取

中文的实体关系抽取

前言

欢迎关注笔者微信公众号,会有更多分享~

本篇博客主要讲NLP中的关系抽取,聚焦点中文,没有过多理论,侧重实践(监督学习)。

关于实体关系抽取的技术发展脉络,感兴趣的可以看一下:

实体关系抽取 entity relation extraction 文献阅读总结 - 一条图图犬 - 博客园

最新的paper

直播预告 | 长文本知识抽取:基于语义分割的文档级三元组关系抽取

关系抽取有限定关系抽取和开放关系抽取,这里主要说限定关系抽取即分类问题

其过程常常又有监督学习和半监督学习,这里主要讲利用深度学习进行的监督学习,关于半监督学习可以使用deepdive

感兴趣的可以看笔者的另一篇博客:

deepdive python3 环境下多种实体关系抽取流程_爱吃火锅的博客-CSDN博客

另外有的场景没有给定实体对,需要联合抽取实体关系,这里也有一个例子是基于bert模型的,笔者进行了解读,感兴趣的可以看下:

bert实践:关系抽取解读_爱吃火锅的博客-CSDN博客_bert关系抽取

本篇全部代码:

https://github.com/Mryangkaitong/Chinese_NRE

数据

数据集简介

1.   数据来源

本次评测数据主要来源于互联网网页文本,其中验证集和测试集是通过人工进行标注的,而训练集是通过远程监督(Distant Supervision)自动生成的。

2.   数据集信息

在数据发布阶段,我们发布训练集、开发集和用于参赛者测试的测试集。总共有34类人物关系,包括一类特殊关系NA,具体见文件relation2id.txt。

3.   数据格式说明

训练集&验证集
各由三个数据文件组成,各数据文件格式如下:

sent_train/dev:sentID sentence
bag_relation_train/dev:bagID e1 e2 sentIDs relationIDs
sent_relation_train/dev:sentID relationIDs

测试集

由三个数据文件组成,其中bag_relation_test为Bag-Track的测试集,sent_relation_test为Sent-Track的测试集,各数据文件格式如下:

sent_test:sentID sentence
bag_relation_test:bagID e1 e2 sentIDs
sent_relation_test:sentID

字段说明:

- sentID为一个实体对和包含该实体对句子的唯一ID。
- sentence为一个实体对和包含该实体对的句子有序组合,实体对之间、实体对和句子之间以“ ”隔开,句子以对应句子分词结果的形式给出,该分词结果仅做参考,参赛者可视情况使用。
- bagID为实例所属包的ID,同一个包中的实例具有相同的实体对。
- e1、e2为给定的人物实体对中的头实体和尾实体。
- sentIDs为包中的句子ID集合,每个ID之间以单个空格隔开。
- relationIDs为包的标签关系ID集合,每个ID之间以单个空格隔开,每个关系的ID见文件relation2id.txt。

评价方式

关系抽取(Relation Extraction)是信息抽取的一个重要子任务,其任务是从文本内容中找出给定实体对之间的语义关系,是智能问答、信息检索等智能应用的重要基础,和知识图谱的构建有着密切的联系。在本次任务中,我们重点关注人物之间的关系抽取研究,简称IPRE(Inter-Personal Relationship Extraction)。给定一组人物实体对和包含该实体对的句子,找出给定实体对在已知关系表中的关系。我们将从以下两个方面进行评测:

1.  Sent-Track:从句子级别上根据给定句子预测给定人物实体对的关系
    输入:一组人物实体对和包含该实体对的一个句子 
    输出:该人物实体对的关系 
    样例一:
        输入:贾玲 冯巩 贾玲,80后相声新秀,师承中国著名相声表演艺术家冯巩。
        输出:人物关系/师生关系/老师
2.   Bag-Track:从包级别上根据给定句子集合预测给定人物实体对的关系
    输入:一组人物实体对和包含该实体对的若干句子
    输出:该人物实体对的关系
    样例二:
        输入:
            - 袁汤 袁安 从袁安起,几代位列三公(司徒、司空、太尉),出过诸如袁汤、袁绍、袁术等历史上著名人物。
            - 袁汤 袁安 袁汤(公元67年—153年),字仲河,河南汝阳(今河南商水西南人,名臣袁安之孙,其家族为东汉时期的汝南袁氏。
        输出:

              袁汤 袁安 人物关系/亲属关系/血亲/自然血亲/祖父母/爷爷 NA

   说明:若有多个关系,则输出多个关系。

Sent-Track任务

选手将结果保存为result_sent.txt,以utf-8编码格式保存,按照sentID顺序,每行2列,以“ ”分隔,第一列为sentID,第二列为该实例实体对关系的判断结果的ID,即“sentID relationIDs”。若为多个关系,则每个关系ID之间以单个空格隔开。

Bag-Track任务 

选手将结果保存为result_bag.txt,以utf-8编码格式保存,按照bagID顺序,每行2列,以“ ”分隔,第一列为bagID,第二列为该实体对的关系ID,即“bagID relationIDs”。若为多个关系,则每个关系ID之间以单个空格隔开。

最终提交文件要求:

每一个参赛队需提交的材料如下:

1、测试集预测结果文件,分别用result_sent.txt和result_bag.txt命名(UTF-8格式)

2、代码及说明

3、方法描述文档(非评测论文,评测论文撰写要求见CCKS 2019官网)。

以上三个文件需在任务提交截止日期后一周内发送至邮箱:王海涛<wanghaitao.mail@foxmail.com>。邮件的标题为:“CCKS-IPRE-参赛队名称”。

代码及其文档需打包成一个文件(tar,zip,gzip,rar等均可),用code.xxx命名,要求提交所有的程序代码及相关的配置说明,程序应当可以运行且所得结果与result_sent.txt和result_bag.txt相符

评测平台:本次评测将依托biendata平台(https://biendata.com/)展开,请有意向的参赛队伍关注平台上的竞赛列表。

评价指标

本次任务的评价指标包括精确率(Precision, P)、召回率(Recall, R)和F1值(F1-measure, F1),分为 Sent-Track 和 Bag-Track 两个部分,每部分按F1值分别排名。只统计预测结果中非NA的数目(如果NA关系预测错误,也会计入到评价指标中计算)。
1. Sent-Track预测结果评价:
给定测试集结果,表示类别预测正确的句子数目,表示系统预测的句子数目,表示标准结果的句子数目。
计算公式如下:

2. Bag-Track预测结果评价:
给定测试结果,表示类别预测正确的包的数目,表示系统预测的包的数目,表示标准结果的包的数目。
计算公式如下:

实践

该实践部分分为三大部分

第一部分主要是使用OpenNRE,这是清华开源的关系抽取API:

https://github.com/thunlp/OpenNRE

但是其目前只实现了bag方式的单标签,没有实现多标签,且没有sent方式,不过现在好像正在开发,大家可以期待,对其感兴趣的同学可以关注:

https://github.com/thunlp/OpenNRE/tree/nrekit

所以准确来说,OpenNRE并不适用该比赛,且其源码中在计算loss的时候使用了sigmoid,对于本赛题的sent方式也不适合,相反我们希望使用softmax,但是有人提出这也是一个技巧,虽然我们是多分类单标签但通过使用sigmoid可以消除类间干扰,说是这么说,直接实践看结果吧,在第二部分实践会看到

鉴于以上,为了进一步展示bag方式(多标签)和sent这种形式,这里会结合比赛的给出的baseline的代码进行实践,补充实现pcnn,rnn,cnn(目前只有sentences)等,同时恰好看到一个相关的别的比赛的答辩视频,其中提到过一些技术,这里也会结合的实现一下

baseline:https://github.com/ccks2019-ipre/baseline

还有就是GRU,其官方对比效果好于OpenNRE

GitHub - squirrel1982/TensorFlow-NRE: Neural Relation Extraction implemented with LSTM in TensorFlow

这也是本篇主要参考几篇资料,第一部分和第三部分在该比赛中效果不好,这里之所以讲主要目的就是介绍一下其使用流程,以便有需要的场合使用,可以略过一三,直接看第二部分

第一部分相关的实践因为其只能处理单标签,这里就用sent的数据

统计了一下类别数量(sent):

训练集上面:

  1. 0 248850
  2. 1 8135
  3. 10 6870
  4. 4 5513
  5. 33 2900
  6. 12 2627
  7. 16 1673
  8. 30 1610
  9. 11 1383
  10. 31 1301
  11. 32 1266
  12. 13 830
  13. 19 805
  14. 17 637
  15. 34 547
  16. 18 532
  17. 7 291
  18. 5 245
  19. 2 218
  20. 3 183
  21. 29 165
  22. 23 158
  23. 26 119
  24. 21 77
  25. 20 77
  26. 6 69
  27. 27 67
  28. 14 46
  29. 8 40
  30. 24 30
  31. 28 24
  32. 22 22
  33. 15 19
  34. 25 13
  35. 9 9

测试集上面:

  1. 0 37332
  2. 10 247
  3. 1 218
  4. 4 125
  5. 12 88
  6. 32 72
  7. 11 65
  8. 33 62
  9. 13 43
  10. 31 27
  11. 16 27
  12. 6 16
  13. 17 11
  14. 2 11
  15. 22 11
  16. 19 9
  17. 7 9
  18. 30 6
  19. 3 5
  20. 34 5
  21. 14 4
  22. 18 4
  23. 5 3
  24. 9 3
  25. 15 2
  26. 24 2
  27. 29 2
  28. 27 1
  29. 25 1
  30. 28 1
  31. 8 1
  32. 21 1
  33. 23 1
  34. 26 1
  35. 20 1

第一部分

OpenNRE需要训练好的词向量,所以我们首先训练词向量

训练词向量

这里使用了jieba进行分词,gensim框架进行训练,

过程是首先是生成语料库corpus.txt,最后生成word2vec.txt

两则都保存在当前文件夹

运行如下即可

Python word2vec_train.py

转化成json文件

因为OpenNRE的输入文件要求是json文件格式,所以这里简单写了个脚本进行转化成要求的json格式

OpenNRE是需要实体id的,这里转化的过程中一个是将句子id+_0和句子id+_1作为实体对的id

另一个是是使用实体字典作为id,看起来后者更符合逻辑,但是预测结果就会丢失句子信息,即属于同一实体对的所有句子都是一个预测结果

运行完后会在data文件夹下产5个相应的json文件

rel2id.json  , word_vec.json,train.json ,  dev json ,test.json 

如果采用后者会多产生一个

sent_id_dict.json

其中sent_id_dict.json的的形式是19#34:['TEST_SENT_ID_027274','TEST_SENT_ID_027275']用于后续预测结果映射

运行如下即可

 python txt2json.py

OpenNRE修改部分

下载上述给的github,解压得到OpenNRE-master,后面就直接使用啦

在直接调用API之前,需要做以下工作

dev/test问题:

OpenNRE给的demo中有train和test两个数据集,而我们这里有3个数据集,train,dev,test,其中train和dev对应OpenNRE demo

中的train,test而我们这里的test是没有label的,所以做以下工作:

首先在OpenNRE-master下创建文件夹 data/people_relation/ (这里将项目命名为人物关系)

然后将上述生成的train.json ,  rel2id.json  , word_vec.json放进来

将dev.json重命名为test.json放进来

将test.json重命名为test_submit.json放进来

为了使test_submit.json也能够生成对应的npy文件(至于为什么要生成npy?可以下面的“其他说明”部分),在train.demo中加上:

  1. test_loader_submit = nrekit.data_loader.json_file_data_loader(os.path.join(dataset_dir, 'test_submit.json'),
  2. os.path.join(dataset_dir, 'word_vec.json'),
  3. os.path.join(dataset_dir, 'rel2id.json'),
  4. mode=nrekit.data_loader.json_file_data_loader.MODE_ENTPAIR_BAG,
  5. shuffle=False)

同样,test_demo.py中对应的改成:test_submit

另外预测结果时用到的是主要是OpenNRE/nrekit/framework.py / 下的__test_bag__函数的如下部分

主要是计算auc,这里的relfact_tot是指的关系数(不包括NA),因为作者的源码的test相当于dev是有标签的所有可以统计auc,但是我们的test是没有标签的,也没有必要知道这些指标,我们想要的只有结果,同时我们上面将txt转化为json的过程中将test中的所有关系都设置为了NA,所以当输入是test_submit时这里的relfact_tot就是0,会报错的,于是乎可以改成这样:

如果是test_submit,就将指标都设置为0,反正也不需要,而且也不可能知道

python版本带来的问题:

test_demo.py在将预测结果写入json文件时,如果使用的是Python3.6,使用json.dump将结果写入文件时会出错,改用ujson

首先导入ujson

import ujson

然后对应部分改为

ujson.dump(pred_result, outfile)

词向量维度:

上述我们的word_vec.json词向量是300维

那么对应到这里源码需要改一下即OpenNRE/nrekit/network/embedding.py /下第29行的word_position_embedding函数中将word_embedding_dim改为300

测试模型参数太多问题:

在运行到epoch=3的时候会突然报错:

这是因为在测试的时候每次都要重新生成一个Model,对应到tensorflow里面的话,张量就会越来越多,到最后就会溢出,为此这里我们就需要做一点改进,那就是判断一下之前是否已经有模型存在,存在的话直接加载就好啦

修改OpenNRE/nrekit/framework.py /,在107行加上,给类re_framework的初始化中加一个属性

self.test_model = None

然后在 __test_bag__方法下将源码中的

model = model(self.test_data_loader, self.test_data_loader.batch_size, self.test_data_loader.max_length)

改为

为了其进一步能够处理这种异常我们train方法下(283行)加上:

这样的话即使再出错,也可以在当前截止,使程序顺利结束,保存好已经训练过的模型

F1指标:

在训练的时候log给出的是准确率信息,没有f1相关的输出,这里我们顺便计算一下f1,并实时输出

在__test_bag__方法中修改:(至于为什么要这么写可参考OpenNRE/draw_plot.py中f1的计算

同理,源码中模型是否保存的基准是auc,这里我们也替换成f1

所以,对应的test_demo.py中,这里返回的也是f1(改一下名字而已)

batch_size和max_length的设置:

原来的设置是batch_size=160,max_length=120

这里改为batch_size=128,max_length=60

具体需要修改的位置就是OpenNRE/nrekit/data_loader.py /下的

npy_data_loader和json_file_data_loader这两个类的初始化

以及OpenNRE/nrekit/framework.py /下的re_model和re_model类的初始化

和train_demo.py/test_demo.py下的相关位置例如:

画图

有的时候,效果很差,所以在draw_plot.py 绘制准确率的时候,这里还是改成从0开始吧,否则看不到结果

Selector的Maximum

源码中已经将max模型改为one,所以以后想要用在selector模式中用max,改用one就行

除此之外,对应的test_demo.py中要将如下部分

改为对应的:

---------------------------------------------------------------------------------------------------------------------------------------------------------------

训练:

这是OpenNRE给的在NYT10上面的运行结果

为此这里我们先来运行一下BiRNN+ Maximum模型组合

注意代码中Maximum对应的是one

python train_demo.py people_relation  birnn one

因为时间较长,这里就后台运行吧

nohup python -u  train_demo.py people_relation birnn one  > output.log 2>&1 &

这里运行了15个epoch

性能

运行

python draw_plot.py people_relation_birnn_one

test_result下面会生成相应的图片

可以看到结果很差

预测

运行

python test_demo.py people_relation  birnn  one

上述运行完会在text_result文件夹下生成相应的预测结果即people_relation_birnn_one_pred.json

转化成txt

结果生成的是json,因上述比赛,这里对应写了一个转化脚本

运行

python json2txt.py people_relation_birnn_one

即可在text_result文件夹下生成result_sent.txt

这里说明一下,模型生成的json文件是各个类别的分数,注意这里不是概率,因为其用的是softmax,且没有NA的概率,所以这里转化的时候如果各个类别(这里是34种)之间分数差别太小(小于1e-5)就认为是0,没有判别出来,否则就去最大分数的类别作为最后类别,关于该问题详细看后面的“其他说明”部分

已经运行的部分结果

rnn+one:

pcnn+att:

pcnn+att:(单词做为id)

其他说明

一 :第一次运行的时候,需要所有的json文件,时间较长,加载的同时其会生成一个_processed_data文件夹

里面除了有我们原始的json文件外,还会有其对应预处理的.npy文件

假设之后需要用相同的数据重跑模型时,其会判断是否有_processed_data文件夹存在,如果存在就会使用np.load进行加载对应npy文件,而非加载json数据,这样做的目的就是加快了加载速度,经过试验加载json需要数个小时,而加载预处理对应的npy仅仅几秒。

二 :模型最后输出的是分数,其实内部源码用的是softmax,且没有NA的分数,按说应该用sigmoid比较好理解,关于这个问题的讨论作者也给出部分回答https://github.com/thunlp/OpenNRE/issues/96

三:在使用OpenNRE中进行预测后,通过转化为txt提交,线上效果很差,不知道什么原因?和这里的F1明显不一样,在转化的过程中是选取最大分数作为预测label的 ,这里需要说明:如果选用单词作为id,OpenNRE的结果是按照 head_id#tail_id 为实体对给出结果的,而不是按照句子id给出预测结果,也就是说如果一个实体对在多句话中出现,那么转化成txt的过程中是将所有句子都打标成预测的结果,这里是不是不太合理?

第二部分

该部分可以看做是OpenNRE的一个简化版本

部分说明

词向量部分:

这里既可以选择加载使用语料库预训练的词向量,也可以选择不使用,不使用的话那就初始化一个词向量矩阵,一同参与从头训练,其实就相当于使用训练集上面的样本当做语料库。

这里同时嵌入了bert模型,该模型目前较火,这里不做进一步介绍啦,网上很多,其关键核心就是句向量,相信很多同学都见过这样的解释,比如苹果一词在水果和手机环境下其实是不同的含义,以前的word2vec训练的一个词的词向量总是固定的,其不会因为语境的不同而不同,而bert就是弥补了这一点,其训练规程很复杂,所幸的是谷歌已经将训练的模型公布,我们可以直接调用,关于具体怎么调用,网上也很多,这里就给出一篇博客吧:

使用BERT获取中文词向量_zhylhy520的博客-CSDN博客_bert词向量

在具体使用的时候,要首先在后台开启其服务:

nohup  bert-serving-start -model_dir ./nert_model/chinese_L-12_H-768_A-12 -num_worker=2 >> bert_output.log 2>&1 &

可能有人这里会有疑问,就比如上述博客中的“中国”这个词,那么得到结果也不就是一个固定的词向量吗?是的,其实我们这里应该这样理解,bert这里并不是将“中国”看成是一个词而是一句话,其本身的定位就是句向量,当输入中国时,其认为中国就是一句话,那么结果对应的就是对中国这一句话的向量,可能这样理解会好一点!

那么其实在这里我们没有利用到bert句向量的优势,因为我们还是相当于得到一个个词的向量,相当于用了其经过大量训练的预模型,如果有好其他想法,可以试一下

因为该过程较慢,这里在train过程中提取后,会随便保存提取好的bert的句向量即在data文件夹下的bert_word2vec.json,后续再进行的时候就不必重新提取啦,直接使用load_bert_word2vec加载bert_word2vec.json就行

网络部分:

这里参考OpenNRE加入pcnn,rnn,birnn,后两个较简单

这里主要说一说pcnn是怎样具体实现的,其原理很简单就是根据两个实体将一句话分成左中右3段,然后分别进行进行最大池化,在代码的实现过程中,其是通过mask,即0,1,2,3对其进行编号(1,2,3是左中右,0代表补齐的部分),然后分段加100,然后整体进行池化,假设【左面+100,中,右面】,【左面,中+100,右面】,【左面,中,右面+100】,即对【【左面+100,中,右面】,【左面,中+100,右面】,【左面,中,右面+100】】进行最大池化,那么对于【左面+100,中,右面】相当于左面先天性的比中,右多出100,那么其实最大化相当于就是在左面进行了,同理【左面,中+100,右面】相当于就是在中间进行了,依次类推,最后得到3个向量那就是相当于分段在左中右进行了最大池化。

bag实现方式:

-------------------------

首先需要说明,假设我们的batch_size = 128

那么bag这种形式在网路过程中其实并不是batch_size = 128,举例来说self.embedding()的输出维度应该是

[batch_size,self.sen_len,self.word_dim+2*self.pos_dim]

对应到这里应该是[128,60,310],但是实际上是[377,60,310]

为什么呢?应该bag下一个样本可能有多个句子,代码中是将所有句子平铺,可想而知总数是大于128的,那么label的shape还是正常的[128,35],那么最后是怎么对应哪几句话属于一个bag呢?

那就是通过sen_num_batch字段,其内部记录了数量,假设样本如下:(前面代表句子,后面代表label)

[sentence_0,sentence_2,sentence_9 ]      [0,1]

[sentence_8]                                                [2]

[sentence_10,sentence_19]                         [6]

那么sen_num_batch中就是【0,3,4,6]即记录累加句子个数,平铺句子后是pat = 【sentence_0,sentence_2,sentence_9 ,sentence_8,sentence_10,sentence_19】

那么选取的时候,对应第一个bag就是pat[0:3]即pat[sen_num_batch[0]:sen_num_batch[1]],依次类推

当然对应的如果是sentence方式,这里的batch_size就一直是128啦

------------------------------------------------------------------------------------------------------------------------------------------

下面看一下bag具体的形式

所谓bag和sentences在实现上的不同,其实是在最后面,即在前面embedding(word2vec,bert等等)以及encoder(cnn,pcnn等等)流程都是一样的,只不过实际中bag方式下的batch_size可能要大一些

两者的正式区别是在经过上述过程后(self.sentence_reps就是上述过程的结果【self.batch_size,self.hidden_dim】)开始分道扬镳的,对应到代码中就是

bag_level和sentence_level两个分别处理的函数。

为了对比先来看下sentence_level

  1. def sentence_level(self):
  2. out = tf.matmul(self.sentence_reps, self.relation_embedding) + self.relation_embedding_b
  3. self.probability = tf.nn.softmax(out, 1)
  4. self.classifier_loss = tf.reduce_mean(
  5. tf.reduce_sum(-tf.log(tf.clip_by_value(self.probability, 1.0e-10, 1.0)) * self.input_label, 1))

很简单,这里就是通过self.relation_embedding(【self.hidden_dim, self.num_classes】即【300,35】)转化为[batch_size,self.num_classes],然后经过softmax就是结果shape就是【128,35】

下面来看下bag_level

  1. def bag_level(self):
  2. self.classifier_loss = 0.0
  3. self.probability = []
  4. if self.encoder=='pcnn':
  5. hidden_dim_cur = self.hidden_dim*3
  6. else:
  7. hidden_dim_cur = self.hidden_dim
  8. self.bag_sens = tf.compat.v1.placeholder(dtype=tf.int32, shape=[self.batch_size + 1], name='bag_sens')
  9. self.att_A = tf.compat.v1.get_variable(name='att_A', shape=[hidden_dim_cur])
  10. self.rel = tf.reshape(tf.transpose(self.relation_embedding), [self.num_classes, hidden_dim_cur])
  11. for i in range(self.batch_size):
  12. sen_reps = tf.reshape(self.sentence_reps[self.bag_sens[i]:self.bag_sens[i + 1]], [-1, hidden_dim_cur])
  13. att_sen = tf.reshape(tf.multiply(sen_reps, self.att_A), [-1, hidden_dim_cur])
  14. score = tf.matmul(self.rel, tf.transpose(att_sen))
  15. alpha = tf.nn.softmax(score, 1)
  16. bag_rep = tf.matmul(alpha, sen_reps)
  17. out = tf.matmul(bag_rep, self.relation_embedding) + self.relation_embedding_b
  18. prob = tf.reshape(tf.reduce_sum(tf.nn.softmax(out, 1) * tf.reshape(self.input_label[i], [-1, 1]), 0),
  19. [self.num_classes])
  20. self.probability.append(
  21. tf.reshape(tf.reduce_sum(tf.nn.softmax(out, 1) * tf.linalg.tensor_diag([1.0] * (self.num_classes)), 1),
  22. [-1, self.num_classes]))
  23. self.classifier_loss += tf.reduce_sum(
  24. -tf.log(tf.clip_by_value(prob, 1.0e-10, 1.0)) * tf.reshape(self.input_label[i], [-1]))
  25. self.probability = tf.concat(axis=0, values=self.probability)
  26. self.classifier_loss = self.classifier_loss / tf.cast(self.batch_size, tf.float32)

经过前面部分,self.sentence_reps的输出是【377,300】

这里for其实就是遍历每一个bag(batch),然后通过self.bag_sens(就是上述说的sen_num_batch)就可以得到当前bag中所有句子,假设

[sentence_0,sentence_2,sentence_9 ]      [0,1]

那么后面tensor的shape依次是:

sen_reps   [ 3, 300]

att_sen      [  3, 300]

score         [35,  3]

alpha         [35,  3]

bag_rep     [ 35, 300]

out             [ 35, 35]

self.probability是一列列表,每次append的是【1,35】,所以最后的shape是【128,35】

这里其实就是用了一个attention,说的高大上一点就是所谓的注意力机制,关于attention可以看一下这篇

Attention Model(mechanism) 的 套路_BVL的博客-CSDN博客

对应上面博主所说的套路,我们这里的问题想将所有的的bag形状转化为[num_classes,hidden_dim]即将

sen_reps(shape多种多样,有可能是上面的【3,300】也有可能是【1,300】,【5,300】等等)转化为bag_rep(即同一转化为【35,300】)

这个就是博主说的attention解决的创建:

“你有kk个dd维的特征向量hi(i=1,2,...,k)hi(i=1,2,...,k)。现在你想整合这kk个特征向量的信息,变成一个向量h∗h∗(一般也是dd维)。”

这里的score就是打分,alpha就是score经过softmax后的权重,之后sen_reps通过乘以权重(tf.matmul(alpha, sen_reps))便得以转化为bag_rep形式

那么关键就是打分函数,这里是一个矩阵self.rel,其实就是self.relation_embedding矩阵

这里其实是[n,300] =>[n,35]=>[300,35]=>[35,35]=>取对角线得到[1,35]

一般attention逻辑来说是[n,300]=>[1,300]最后通过一个矩阵转化得到[1,35],

第二种:score是对每一句话打一个一个分数,

而第一种是采用了每一句话都对每一个类打一个分数[n,35],然后得到[35,300]相当于综合考虑了n句话得到了35类,每一类给与了300种分数,最后通过一个矩阵转化得到[35,35]取对角线得到[1,35]

------------------------------------------------------------------------------------------------------------------------------------------------------------------

以上就是两者的全过程,不论是bag形式还是sentences形式,经过上面的输出的预测结果self.probability都是【batch_size,num_classes】即【128,35】

之后再train,dev以及test函数中,对于bag和sentences形式也略有一点不同,但都是同一个套路,就看test中吧

  1. if self.bag:
  2. all_preds = all_probs
  3. all_preds[all_probs > 0.9] = 1
  4. all_preds[all_probs <= 0.9] = 0
  5. else:
  6. all_preds = np.eye(self.num_classes)[np.reshape(np.argmax(all_probs, 1), (-1))]

如果是sentences方式就直接取35类中最大值为结果

如果是bag方式那就设置一个阈值,大于0.9的都认为是结果,当然啦这个阈值也是人为可以设定的

以下是部分运行结果(F1):

不使用经过text预训练的词向量   cnn :   线下bag 0.19    线上bag  0.16564

使用经过text预训练的词向量  cnn :     线下bag  0.312704      线上bag   0.33402    线下sent 0.21     线上sent    0.21387

使用bert句向量  cnn : 线下bag 0.33  线上bag  0.32057

使用经过text预训练的词向量  pcnn : 线上bag 0.30414

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------

更新部分:

偶然发现天池上面一个已经结束的比赛,初赛是实体识别,复赛是关系抽取

瑞金医院MMC人工智能辅助构建知识图谱大赛-天池大赛-阿里云天池

答辩视频

【瑞金医院MMC人工智能辅助构建知识图谱大赛】总决赛 答辩会直播 - AI学习 - 阿里云天池

部分开源代码:

https://github.com/qrfaction/ruijin-kg-SuperGUTScode

Search · 瑞金 · GitHub

首先归纳一下框架:

数据预处理部分:针对瑞金这个比赛,这里可以做的就是分句(滑动窗口),一般该部分可以努力的方向是数据增强

模型部分:大部分都采取了常见的birnn+attention,核心框架都是这个,只不过在其上面进行了部分改进

下面会使用答辩中提到的一些技巧来扩展我们第二部分的代码,进而看下在我们开头说的比赛上面效果,下面是笔者实验的部分结果结果(由于知道的比较晚,此时比赛已经结束了,没法进行线上验证了,下面仅给出线下分数):

 一  input+双层birnn(lstm)+attention_1

首先是Q&A团队提到的

总体框架是:

Encoder部分主要就是birnn,看一下输入部分(Input):

从这里可以看到多了flag和segment,其中flag是词性,segment是实体标示,第一个实体位置赋值0.1,第二个是-0.1,其余位置为0

这里笔者在具体复现的时候采用的是pyltp得到词性(笔者代码中的postagger和上图的flag是一个东西),实体位置标示改为1(没试过0.1的效果),然后经过birnn(单层GRU)+attention_1得到输出

这里所谓的attention_1指的是打分机制使用的是原text

相比于之前大概提升了4个百分点

 二  input+单层birnn(gru)+attention_1

sent方式线下:

这里将birnn部分换成了单层的GRU

可以看到是0.26,接近提升6个百分点(相比0.21),效果显著

当前我们的模型总结起来大体是

 二  input+cnn

这里主要就是不使用birnn,而是使用一个简单的cnn,顺便看了一下其在bag方式上面的效果:

大概运行了200个epoch,可以看到还不如bag的baseline,所以说birnn还是要好点

三  input+双层birnn+attention_2

这里尝试使用双层birnn,因为第一层(底层)偏向提取语法方面的信息,第二层(高层)偏向提取语义方面的信息,至于理论语句是有一篇论文,答辩视频中也提到了,作者是通过用底层birnn的输出和高层的输出去分别做语法语义方面的任务,发现底层善于处理语法高层善于处理语义,这里我们将两层输出进行简单的加和(借鉴第一名的思路),当前模型大体框架是

其中attention_2(借鉴第二名思路)

这里的x0-x1-x2的含义是用除了两个实体以外的其它文本信息去做打分机制,而上面我们的attention_1是直接使用了自身encodr作为打分机制的,所谓打分机制实际上目的就是要得到一个[batch_size,max_len,1]的向量

相比于第一个0.2693稍微提高了一点,效果不是很明显

四  input(cnn)+双层birnn+attention_2

这里主要在embedding的时候先使用cnn分别对word,位置,词性进行一次cnn提取特征

效果不好,反而下降了

四  双层birnn+attention_1+level_1

看了那几种分类,其实可以看到是有等级的比如1-29都属于一大类亲属关系,30-32社交关系,33-34师生关系,0自己属于一大类,于是这里试了一下在输出层使用一个level_1矩阵做一个四分类计算一个loss,然后再经过2两个全连接层做一个35分类计算一个Loss,将两部分loss作为最后的总loss结果:

没有效果

五 sigmoid

看到说使用sigmoid可以一定程度上屏蔽类间干扰,相当于多个二分类,然后计算loss的时候因为知道label嘛,取出对应的概率去计算,恩恩,貌似很有道理,但是实践效果极差

六 双层birnn(gru)+attention_1+MASK

这里是将实体对都替换成MASK,因为判断实体对的关系更多的是应该考虑除实体对以外的那些文本

有所提高

六 数据增强相关

一般来说数据NLP数据增强比较容易想到的就是随机drop掉一些词和shuffle随机打乱一些句子顺序

(1)双层birnn(gru)+attention_1+drop

(2)双层birnn(gru)+attention_1+drop+MASK

(3)双层birnn(gru)+attention_1+drop+shuffle

drop+shuffle

(4)双层birnn(gru)+attention_1+drop+shuffle+MASK

(5)双层birnn(gru)+attention_1+shuffle+MASK

七 双层birnn(gru)+MultiHeadAttention+MASK

这里主要考虑了bert  Transformer中的MultiHeadAttention,注意在具体代码实现的时候,原本多头attention,是重复多次然后concat,这里是将hidden先均分成多份,然后分别进行attention所以最后MultiHeadAttention的结果最后一维不是n*hidden而还是hidden

从上面(1)(2)来看drop带来好处,但是MASK反而降低性能

从(3)(4)来看MASK似乎又带来了性能的提高

因为数据增强这里采用的是随机选择一些词进行打乱或drop,不难想象有可能会drop掉一些关键词,而且在关系抽取中我们多次应用了位置信息,打乱位置信息的话可能也会带来一定影响,但是这样随机假如一些扰动在一定程度也可以增加模型的泛化性,说实话没有试验前,不会做出好不好的判断,上述是一部分试验结果,也许再次运行的话又会有不一样的结果,因为数据增强是随机的,drop和shffle到底有没有用?有多大的用?从上面看貌似有点作用,至于MASK能不能提高性能,为什么会出现(2)的情况,这个到后面其实还在一直运行,貌似已经收敛,截取的结果,0.276的结果也是在跑了一段时间后本以为收敛了,可是出现了0.276,总得来说感觉MASK还是很有用。

后续在做相关任务的时候,其实最好的办法就是去试一试看看效果

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------

第三部分

其也是只有bag这种方式的单标签

一:将解压的数据放入origin_data目录下 二:数据预处理

  1. python initial.py

三:训练

  1. python train_GRU.py

其中它会自动调用test_GRU.py验证其在dev上面的性能

四:预测结果

  1. python predict_GRU.py 2643

其中2643是加载2643模型,可以加载别的,具体看model下面有哪些即可

运行结果:

遇到的问题和一些总结:

一 : 上述都是基于tensorflow实现的,这里偶然间看到一个基于pytorch实现的类似OpenNRE,想要开发pytorch版  本可以参考一下GitHub - ShulinCao/OpenNRE-PyTorch: Neural Relation Extraction implemented in PyTorch

二 :经过试验可得,使用gensim或是bert预训练的词向量总体上会有大幅度提高,但对比word2vec,bert貌似在当前(NRE)问题中没有看到显著优势(其主要在文本分类上面优势比较明显),线下有稍微提高,线上反而效果又欠佳

三:pcnn相比于rnn有做了__piecewise_pooling改进,但是效果在该数据集上却比cnn差一点

六:这里也没有进行调参,而且在确定了最后要用的模型后,为了提高一点可以同时使用train和dev数据集去训练,然后预测test,当然啦这没什么技术层面的技巧,纯粹是为了扩大点数据量增加分数,以上结果都是单纯训练train数据集的结果

总结一下其它比较好的几个思路:

1 人工打标

2 先对NA和非NA做一个而分类,有关系的话再进行多种关系的多分类,这其实就是前面说的多级分类

3 对bag进行句子合并

4 调整远程监督的打标的结果

模型的话大部分都是bert,将实体对放在句首,用:隔开,必须是:,真是玄学

更新

OneRel:关系抽取最新SOTA,但看完之后觉得...JayJay有一些自己的看法~https://mp.weixin.qq.com/s/glRcbuBJV4vCefDycRJMQA

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/365532
推荐阅读