博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
论文浅尝 | 采用多层注意力机制的事件检测
阅读量:4204 次
发布时间:2019-05-26

本文共 867 字,大约阅读时间需要 2 分钟。

笔记整理:杨帆,浙江大学计算机学院硕士,研究方向知识图谱。


640?wx_fmt=png

动机

事件编码(event encoding)之前的工作集中在提取实体,检测触发单词以及匹配预定义的模板,这些方法存在以下缺点:首先它们依赖于细粒度的标记数据进行训练,但是这些数据很难获得;其次它们使用句子级别的嵌入来去除导致错误的上下文信息,但是一个事件的信息并不只是包含在一个单一的句子中。作者提出的模型引入多层的注意力机制来生成句子和文档的表示,旨在更好地捕获全局信息来进行事件分类及编码。

模型

本文提出的模型包含以下三个模块:

1. Sequence Encoder 

640?wx_fmt=png

该模块使用双向GRU生成每个单词的表示。

2. Word-Level Attention

该模块包含以下三部分:

2.1 Bilinear Attention 

640?wx_fmt=png

第一部分将 Sequence Encoder 生成的单词表示通过一层的MLP得到其对应的隐藏层表示640?wx_fmt=png,然后利用 640?wx_fmt=png640?wx_fmt=png 计算得到attention 640?wx_fmt=png640?wx_fmt=png 代表句子的全局信息。

2.2 Factorized Bilinear Multi-Aspect Attention (FBMA)

640?wx_fmt=png

第二部分通过矩阵分解将之前单层的attention转换为多层的attention,用来抽取更丰富的全局信息。

 

2.3 Sentence Representation 

640?wx_fmt=png

第三部分通过单词的表示以及对应的attention计算得到每个句子的表示。

 

3. Attention-Level Attention

3.1 Document representation 

640?wx_fmt=png

文档表示的计算方式与句子表示类似,此处不再赘述。

 

3.2 Loss 

640?wx_fmt=png

该模型采用交叉熵作为损失函数,并且引入惩罚项P防止生成的多层attention的各层权重相同。

实验

1. Dataset 

640?wx_fmt=png

2.Baselines 

640?wx_fmt=png

3.Results  

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png


OpenKG

开放知识图谱(简称 OpenKG)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

640?wx_fmt=jpeg

点击阅读原文,进入 OpenKG 博客。

转载地址:http://xvsli.baihongyu.com/

你可能感兴趣的文章
刘作虎:一加新品将全系支持 5G
查看>>
滴滴顺风车上线新功能,特殊时期便捷出行
查看>>
不会延期!iPhone 12S预计如期在9月发售:升级三星LTPO屏幕
查看>>
腾讯物联网操作系统TencentOS tiny线上移植大赛,王者机器人、QQ公仔、定制开发板等礼品等你来拿 !
查看>>
为云而生,腾讯云服务器操作系统TencentOS内核正式开源
查看>>
腾讯汤道生:开源已成为许多技术驱动型产业重要的创新推动力
查看>>
微信小程序多端框架 kbone 开源
查看>>
视频质量评估算法 DVQA 正式开源
查看>>
腾讯优图开源视频动作检测算法DBG,打破两项世界纪录
查看>>
在中国提供了60亿次服务的疫情模块向世界开源 腾讯抗疫科技输出海外
查看>>
在中国提供了60亿次服务的疫情模块向世界开源
查看>>
世界卫生组织与腾讯加深合作 新冠肺炎AI自查助手全球开源
查看>>
Hibernate 中get, load 区别
查看>>
java反射详解
查看>>
JPA 注解
查看>>
JQuery 简介
查看>>
Java创建对象的方法
查看>>
Extjs自定义组件
查看>>
TreeGrid 异步加载节点
查看>>
Struts2 标签库讲解
查看>>