《Aspect Level Sentiment Classification with Deep Memory Network》阅读笔记

论文链接:http://pdfs.semanticscholar.org/b28f/7e2996b6ee2784dd2dbb8212cfa0c79ba9e7.pdf

本文提出一个基于深度记忆网络的aspect level sentiment分类,不像feature-based SVM和序列神经网络LSTM,本文的方法可以提取每个上下文词的重要度,用于预测一个aspect的sentiment polarity。用多个计算层和一个外部memory。


Introduction:

Given a sentence and an aspect occurring in the sentence, this task aims at inferring the sentiment polarity(e.g. positive, negative, neutral) of the aspect.

本文的方法是data-driven的,不依赖于句法分析器和情感词典。本文的方法包括多个计算层,参数共享。

Each layer is a content- and location- based attention model, which first learns the importance/weight of each context word and then utilizes this information of each context word and then utilizes this information to calculate continuous text representation.

最后一层的text representation被看做用于情感分类的特征。



Deep memory network for aspect level sentiment classification

1. Task definition and notation:

给定一个句子s = {w1, w2, ..., wi, ..., wn}包括n个单词和一个aspect word wi1,这个wi1出现在句子s中。aspect level的情感分类希望确定the sentiment polarity of sentence s towards the aspect wi。(在实际中,会有多个单词的aspect,例如“battery life”,为了简化问题本文将aspect定义为单个单词)

2. An overview of the approach

词向量被分为两部分,aspect representation和context representation,如果aspect是单个词例如"food"或"service",aspect representation是aspect词的embedding。多个词的aspect例如“battery”,aspect representation是平均值。本文只用单个词的情况。

上下文的vectors是{e1, e2, ..., ei-1, ei+1, ..., en} 堆叠起来,看作是外部memory,n是句子长度

external memory

本文的方法包括多个layers(hops),each of which contains an attention layer and a linear layer.

在第一个computational layer(hop)中,将aspect作为输入,根据attention层从memory m中选择重要信息。attention层的输出和aspect向量的变换求和,结果作为下一层的输入,最后一个hop的输出作为representation of sentence with regard to the aspect。attention和linear layers的权值共享。


3. Content attention

The basic idea of attention mechanism is that it assigns a weight/importance to each lower position when computing an upper level representation

输入:external memory m属于Rdxk,和一个aspect vector vaspect属于Rdx1。输出是每个memory的加权和。

k是memory的大小,ai属于[0,1],是mi的权重,ai的总和为1。对于每个memory mi,我们使用一个前向神经网络来计算mi与aspect的语义关联。打分函数通过如下计算,

得到了{g1, g2, ..., gk},使用softmax计算importance score

importance score

attention模型有两个优点,一个是可以增加importance score,根据mi与aspect的语义关联。另一个优点是attention模型是differentiable(可微的?),用端对端的方式来训练。

4. Location Attention

Model1:来自(End-to-End memory network)

memory vector mi

vi属于Rdx1,是wi的location vector。

n是句子长度,k是hop number, li是wi的location

Model2:Model1的简化版本,在不同的hop使用同样的location vector

Model3

将location vector看做是参数,All the position vectors are stacked in a position embedding matrix, which is jointly learned with gradient descent.

Model4

location vector看作是参数,location representation被看做是一个neural gates,来控制有多少部分的单词语义要写到memory中,使用sigmoid函数计算,mi是一个element-wise multiplication。

5. The need for multiple hops

It is widely accepted that computational models that are composed of multiple processing layers have the ability to learn representations of data with multiple levels of abstraction

loss函数

T是所有的训练实例,C是sentiment categories

(s, a)代表了 sentence-aspect pair

Pc(s, a)是预测(s,a)的分类为c的概率,Pcg(s, a)是1或者0,代表正确答案是否是c

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,445评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,889评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,047评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,760评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,745评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,638评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,011评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,669评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,923评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,655评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,740评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,406评论 4 320
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,995评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,961评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,023评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,483评论 2 342

推荐阅读更多精彩内容

  • 那盆黄色的风信子还放在窗台, 天气也晴了,有点难过的是, 那天的光景, 是我这辈子再也遇不到的了。 因为相同的爱好...
    叶抽抽阅读 471评论 9 2
  • 习惯,慢慢修习,逐渐成为惯性。 习惯,像卫星升空一样,刚开始最难,地球用尽全力拉住你,阻力持续好久好久。渐渐的,渐...
    笑面蛇阅读 187评论 2 0
  • 1.思想学习的目标: 积极向上,尽快调整焦虑和浮躁的心态,保持良好的状态。 2.专业学习的目标: 考研路不回头。在...
    5a66f16e7654阅读 152评论 0 0