针对现有方法中缺乏实体之间潜在的隐性关系挖掘和头实体信息提取不够充分的问题,提出了一种头实体增强的多跳注意力隐性关系联合挖掘模型Multi-Air(multi-hop attention implicit relations joint mining method).该方法首先使用BERT(bidirectional encoder representations from transformers)模型对输入句子进行特征编码并通过Sigmoid函数预测出头实体的位置,然后通过双向门控循环单元(bidirectional gated recurrent unit, Bi-GRU)对头实体进行特征增强。在充分利用头实体的深层信息后,输出多关系尾实体可能的开始和结束位置,最后将输出的尾实体又作为下一跳的头实体,迭代执行多跳尾实体预测并利用注意力权重动态调节学习到的多跳实体和关系特征进而实现文本中潜在的隐含关系三元组挖掘。Multi-Air模型在公开数据集NYT和民航突发事件数据集上都取得了较好的提升。
1 Multi-Air多跳注意力模型
1.1 BG-CasRel模块
1.1.1 编码层
1.1.2 头实体标注层
1.1.3 头实体特征增强层
1.1.4 尾实体迭代标注层
1.2 多跳注意力模块
1.3 损失函数
1.4 实验效果分析
1.4.1 实验数据与参数设置
1.4.2 评价指标与实验结果
2 Multi-Air在民航突发事件中的应用
2.1 数据来源
2.2 实验结果与分析
3 结束语
主办单位:煤炭科学研究总院有限公司 中国煤炭学会学术期刊工作委员会