SDN: Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction


本文前置知识:

Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction

本文是论文Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction的阅读笔记和个人理解, 论文来自EMNLP 2021.

Basic Idea

联合抽取因NER和RE之间的复杂交互而有挑战性, 现有的方法经把二者通过一个共享的网络来解决, 丢失了实体类型关系类型相互依赖.

因此, 作者从多任务学习角度, 设计了一种跨类型注意力的同步对偶网络, 来充分利用实体类型和关系类型之间的联系.

下图是一个实体关系抽取的例子, 需要根据给出的句子来抽取出实体以及其对应的实体类型, 并判断实体之间所存在的关系, 以此组成三元组:

Type - Attention LSTM

作者设计的框架TA - LSTM(Type Attention LSTM)是基于LSTM的, 作者先介绍了标准LSTM. 在t 时刻, 输入的Token的Embedding为xt, 基于细胞状态ct 的隐态输出htc 计算流程为:

[itotftc~t]=[σσσtanh](W[ht1;xt]+b)ct=itc~t+(1it)ct1htc=ottanh(ct)

其中W,b 为可学习参数, σ 为Sigmoid激活函数.

上述式子由上到下分别为: t 时刻的输入门it, 输出门ot, 遗忘门ft, 初始细胞状态c~t, 细胞状态ct, 隐态输出htc(也作为上下文表示).

Type - Attention Mechanism

这部分是TA - LSTM额外添加的内容.

在Type - Attention机制中, 对于类型k, 以及给定的t 时刻输入xtt1 时刻的隐态ht1. 该类型相关的Key - Value对可以由下式计算得来:
[kk(t)vk(t)]=[σσ](Wk[ht1;xt]+bk)

k[1,,m] 可以是实体类型或关系类型, 其中Wk,bk 为可学习参数, σ 为Sigmoid函数. 其实跟it,ot,ft 得来的方式差不多.

这样就可以根据类型数量m, 得到m 个类别特化的Key - Value对K(t)=[k1(t),,km(t)]V(t)=[v1(t),,vm(t)].

接着把上下文表示htc 视为Query, 把Attention机制应用到这上面来:
htl=attention(htc,K(t),V(t))=α(t)V(t)α(t)=softmax(htcK(t)de)

de 为Hidden state维度.

最后, TA - LSTM的t 时刻上下文表示htc 和类别表示htl 相加得到t 时刻的最终表示ht:

ht=htc+htl

Synchronous Dual Network with Cross - Type Attention

Task Definition

在这里重新给出形式化的实体关系抽取任务定义.

对于给定的包含n 个单词的句子s=[w1,,wn], RTE的任务目标是抽取出句子s 中的关系三元组T={(ei,r,ej)ei,ejE,rR}. ei,ej,r 分别代表关系三元组的Subject, Object, Relation.

Subject, Object规定在实体集E={ei}i=1P中, 关系从预定义好的关系集R={R1,,Rm}中选出, m 为有效关系类型数.

Synchronous Dual Learning

接下来作者将通过Entity Type Learning和Relation Type Learning来捕获实体类型增强的表示hte, 关系类型增强的表示htr, 以增强模型对Type的感知力.

Entity Type Learning

NER作为序列标注问题, 实体类型作为标签, 例如PER, LOC, ORG等:

若有p 种实体标签, 每个实体类型都对应一个ETC(Entity Type Cell), 就有p 个ETCs.

为了让模型学会实体类型预测的感知, 所以引入了Entity Type Learning作为辅助任务.

下面的公式有些琐碎, 与原论文保持同步, 但其实并不复杂, 请耐心看完.

从上一节可以仅用LSTM直接得到t 时刻的上下文表示htc​, 用双向平均来, 即h¯tc=[(h¯tc+h¯tc)/2].

并由Type Attention机制得到一组与每种关系一一对应的Key - Value对 K¯(t)=[k¯1(t),,k¯p(t)], V¯(t)=[v¯1(t),,v¯p(t)], 其中的每个实体类型p 对应的Key和Value也是由单向LSTM生成后, 将双向平均而来, 即 k¯l(t)=[(k¯l(t)+k¯l(t))/2], v¯l(t)=[(v¯l(t)+v¯l(t))/2],(l[1,,p]).

t 时刻实体类型相关的表示由两个方向拼接而成, hte=[htehte], 整个序列的实体类型表示记为H(e)=[h1e,,hne].

根据上述过程, 每个时间步t 都能得到不同的Type Specific Key - Value对.

然后把上下文表示h¯tc 和不同实体类型的Keyk¯l(c)做缩放点积, 得到当前时刻Token最相似的实体类型Tle:
p(Tlewt)=softmax(htckl(t)de)

然后用极大似然优化:

LET=t=1nlog(p(Ttewt))

Relation Type Learning

同样的, 跟Entity Type Learning相类似, Relation Type Learning也是用来强化模型对类型感知的辅助任务.

因为存在相同实体对存在多种关系的情况(EPO问题), 所以用多标签来标注, 即用0, 1标签来表明实体之间的关系, 例如:

在这里, 作者区分了Subject和Object的位置关系, 并将其纳入标签中. 设M 为关系数量, 加上没有关系的情况, 共含有2×M+1 种标签.

下内容与Entity Type Learning完全类似, 这里只是将实体类型转换为q 种关系类型, 不再多加赘述.

上下文表示为h^tc=[(h^tc+h^tc)/2], Key - Value对 K^(t)=[k^1(t),,k^q(t)], V^(t)=[v^1(t),,v^q(t)], 由双向后求和平均得到, k^l(t)=[(k^l(t)+k^l(t))/2],[(v^l(t)+v^l(t))/2],(l[1,,q])

最后也是将双向拼接得到关系表示, htr=[htrhtr], 整个句子的关系表示记为H(e)=[h1r,,hnr].

因为是多标签问题, 所以用的是Sigmoid得到wt 的关系类型Tlr:

p(Tlrwt)=sigmoid(h^tck^l(t)de)

也是用极大似然优化:

LRT=t=1r=12{log(p(Ttrwt))I{T^tr=1}+log(1p(Ttrwt))I{T^tr=0}}

Cross - Type Attention Mechanism

其实在Entity Type Learning和Relation Type Learning中的Entity Type和Relation Type使用是独立的, 所以接下来作者需要让它们彼此产生交互.

对于Entity Type Learning中得到的实体类型增强的表示hte, 以及关系类型相关的Key - Value对K^(t),V^(t), 关系 - 实体表示cte 可以由前面讲过的Type - Attention机制得到.

与之相似的, 对于Relation Type Learning中得到的关系类型增强表示htr, 以及实体类型相关的Key - Value对K¯(t),V¯(t), 实体 - 关系表示ctr 也可以由Type - Attention得到. 即:
cte=attention(hte,K^(t),V^(t))ctr=attention(htr,K¯(t),V¯(t))

注: 该Cross Attention形式绝非首次出现, 在多模态模型ViLBERT 中早就已经有把两种跨模态信息互相作为Query的方法. 只不过这里是将两种模态换为两种包含相关性的任务而已, 这二者十分相似.

然后仿照TA - LSTM unit的最后, 把两种表示相加作为新的实体类型增强表示和新的关系类型增强表示:
h~te=cte+hteh~tr=ctr+htr
这也就是处理NER和RE前的最终表示形式了.

Joint Entity and Relation Extraction

下面的内容才是针对实体关系联合抽取的模型设计, 这部分设计的非常简单, 因为本文主要侧重点在于前面.

首先把Entity Type Learning中得到的实体表示h~te 和Relation Type Learning关系表示h~tr 拼接起来, 得到一个联合表示:

h~t=h~teh~tr

Named Entity Recognition

在NER任务中, 使用BIESO标签, 用Softmax和一层线性层搞定:
yt=softmax(Weh~t+be)

用极大似然优化即可:
LE=t=1nlog(yt)

Relation Extraction

作者Follow了前人的做法, 因为RE是一个与实体对相关的多标签任务, 所以这里做了实体对穷举, 判断Token i 和Token j 之间的关系r:

m=ϕ(Wm(h~ih~j)+bm)yi,jr=sigmoid(Wrm+br)

其中Wm,bm,Wr,br 为可学习参数, ϕ 为ReLU.

然后用二分类交叉熵做Loss:

LR=r=1Mi,j=1n{log(yi,jr)I{y^i,jr=1}+log(1yi,jr)I{y^i,j=0}}

其中y^i,jr 为关系的Golden Label.

至此, SDN的模型结构已经完全确定:

其实就是用TA - LSTM和ETC提供的信息完成辅助任务Entity Type Prediction, 再由这部分信息和Cross Attention组合, 经过简单的变换处理NER. 关系侧则完全同理, 不再叙述.

Training

Training的Loss一共是五个, 最后加上一个L2正则化Loss:

L=λt1LET+λt2LRT+λeLE+λrLR+λ2|Θ|2

λ 为各个任务的权重系数, Θ 为模型参数.

Inference

在推断时, 需要判断三元组是否正确.

对于NER抽取出的实体集E 中的实体, 有Subject ei=[wξi,,wζi], Object ej=[wξj,,wζj], 关系r 下的概率为pr 为:
pr=1|ei|1|ej|f=ξiζis=ξjζjyf,sr
|ei|,|ej|ei,ej 的长度, 仅当pr>θ 时三元组成立, θ 为阈值.

这种计算方式确实比较特殊, 是将实体内所有Token对逐一求和平均来确定两实体之间是否存在指定关系.

Experiments

作者使用了RTE上最常用的两个Benchmark NYT和WebNLG, 统计信息如下:

Main Results

作者将SDN分别与多任务类, Tagging类, 生成类放在一起对比, 结果如下(应该指的是精确匹配结果):

SDN在F1上是最好的.

Ablation Experiments

文中消融实验如下:

Entity Type Learning和Relation Type Learning对模型性能均有相当大提升, 而且是对NER和RE任务都有影响, 并且能观察到NER和RE任务之间的关联性很强.

Analysis of Inference Threshold

作者做了不同阈值θ 和模型结果之间变化图:

作者将阈值对性能的影响归因与WebNLG和NYT之间实体长度不一.

Case Study

作者做了Case Study, 如下:

Summary

作者从实体类型关系类型的假设入手, 提出了一种基于TA - LSTM和Cross Type Attention的同步对偶网络, 通过强调对实体类型的感知, 关系类型的感知, 以及跨类型注意力解决了实体关系抽取问题.

但其实从文章中看出, 能把这个想法做Work是一件非常不容易的事情, 引入了额外的两个辅助任务, 除去正则外4个Loss属实难顶. 文章中的符号描述比较混乱, 尤其是两个辅助任务那部分, 但其实不复杂,


文章作者: DaNing
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 DaNing !
评论
0 comments here
 上一篇
Hexo博客迁移 Hexo博客迁移
Hexo博客迁移本文记录一次带主题的Hexo博客迁移过程, 从Win上迁移到MacOS. 前置依赖首先, 需要在MacOS上装Node.js和Git的环境, 网上有大把大把的教程, 这里就不再多说了, 自行搜索即可. 必要文件把Window
2022-03-17
下一篇 
PFN: A Partition Filter Network for Joint Entity and Relation Extraction PFN: A Partition Filter Network for Joint Entity and Relation Extraction
本文前置知识: RNN: 详见循环神经网络小结. A Partition Filter Network for Joint Entity and Relation Extraction本文是论文A Partition Filter
2022-01-12