赞
踩
2022.11.16|EMNLP 2022|中国科学技术大学 |原文链接|源码链接
我认为作者想表达的意思是过去把实体和关系分开来看了,但是
实际上实体和关系本质上是有关联
的,可以通过实体推断关系,通过关系推断实体,所以只捕捉实体的上下文是不够的
。
由此文章提出统一表示和交互的UniRel模型来解决上述问题。
关系和实体都编码成序列
来构造统一的表示,即联合编码
实体-实体
、实体-关系
建模新的数据集
给出X,识别出T
即对实体和关系进行联合编码
/business/company/founders
的founders
。embeding table
中搜素相应ID
,将输入转为为input embeding
。
H
=
E
[
T
]
H=E[T]
H=E[T](2)
在这一步之中,解决了实体和关系之间的异构表示问题
使用实体-实体、实体-关系之间的内在联系直接提取三元组。
实体-实体:标注那些可以形成三元组的实体对(因为存在关系才能有内在联系)。进而(A,R,B)和(B,R,A)都可以识别出来,解决实体对重叠的问题。
对于关系R,
∃
\exists
∃E为主/宾语R为关系的三元组时,E-R有内在联系。但关系是具有方向性的,所以需要不对称的定义E-R关联以区分主语、宾语
由BERT的最后一层( H 1 1 H_11 H11)输出的Q,K,可以将所有head的Q、K的值计算平均值,然后直接使用激活函数得到结果
解决了体-实体交互和实体-关系交互异构建模问题
因为实体-实体、实体-关系都在Interation Map中建模,所以预测空间缩小到 O ( ( N + M ) 2 ) O((N+M)^2) O((N+M)2)【对于OneRel,使用了 O ( N × M × N ) O(N\times {M} \times {N} ) O(N×M×N)】
使用二值交叉熵损失(binary cross entropy loss)进行训练
L
=
−
1
(
N
+
M
)
2
∑
i
N
+
M
∑
j
N
+
M
(
I
i
,
j
∗
l
o
g
I
i
,
j
+
(
1
−
I
i
,
j
∗
)
l
o
g
(
1
−
I
i
,
j
)
)
L=-\frac{1} { (N+M)^2 } \sum_{i} ^{N+M} \sum_{j}^ {N+M} (I_{i,j}^* logI_{i,j} + (1-I_{i,j}^*) log(1-I_{i,j} ) )
L=−(N+M)21i∑N+Mj∑N+M(Ii,j∗logIi,j+(1−Ii,j∗)log(1−Ii,j))
其中
I
∗
I^*
I∗是Interaction Map中的ground truth矩阵
实体-关系
的内在联系中识别出
所有有效的主语和宾语
这种解码,可以解决EPO和SEO的情况,SEO:(Homes,Lives_In,UK),EPO:(Uk,Contains,London)
WebNLG的准确率超过了人类的新能。
U n i R e l u n u s e d UniRel_{unused} UniRelunused:在微调阶段,对那些被标记成[unused]的词向量随机初始化【目的为了将词无意义化,[unused]是Bert的占位符】,可以看出准确率在下降,进而得出有意义的信息的重要性。由于WebNLG数据少关系多,所有性能下降的更多。
U
n
i
R
e
l
s
e
p
a
r
a
t
e
UniRel_{separate}
UniRelseparate:以单独
的方式对提取到的关系序列(E-R、R-E)这两种关系进行建模。
方式:
句子的向量矩阵序列
和自然文本
。Q、K
。文中作者其实是使用了提示学习的方法,通过使用人工标记关系词将文章效果进行提升。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。