对Word2Vec的一点理解

这一周仔细研究了一下自然语言处理方面(NLP)的一个大问题,Word2Vec。并且针对这个问题手动用代码实现了一下。所谓Word2Vec就是将自然语言中的词汇转化成向量形式。在传统的转化方案中大多是利用one-hot编码,也就是说若一个语料库中拥有三万个词汇,那么每一个词转化成的向量就会拥有三万维,整个语料库变成了一个巨大的稀疏矩阵,这对内存和计算力来说都是不小的挑战。后来随着神经网络的兴起,Word2Vec摆脱了以往傻大黑粗的转化方式,开始利用神经网络进行编码,当然这是另一个分枝了。今天笔者要讲的是Google提出的一种Word2Vec的方式,这种方式不但可以将词汇用有限的维数表达(通常不超过150维),而且还能够保留词与词之间的语义联系。话不多说,下面开始详细介绍。

介绍

由Google提出的这种Word2Vec模型是有着非常深厚的数学基础,在介绍这种方法之前首先我们应该先了解这个模型的两种应用。第一种是CBOW(Continuous Bag of Words),另一种是Skip-Gram。这两种Word2Vec模型都是语义预测模型,数学推导非常相近,用于解决两类截然不同的问题。CBOW用于解决通过上下文预测中心词的问题,也就是说我们给出一句话的上下文,要求该模型能够预测出中心词是什么。Skip-Gram模型则恰恰相反,它用于预测上下文,就是说我们给出一个中心词,要求模型能够给出与该中心词相关的上下文。在本文中笔者以Skip-Gram模型为基础介绍算法的一些细节和实现。

数学基础

Skip-Gram模型中已经给出了模型的目标:就是要根据中心词预测出上下文词汇。该模型是依据概率论中的观点,建立一个似然函数来实现模型的目的。该模型的本质还是去解一个最优化问题的解,其优化问题的表达就是上文提到的那个似然函数。在Skip-Gram模型中待优化的目标函数可以写成如下形式:

上式中w就是模型中传入的中心词,u是w的上下文中的词。该优化函数所要表达的意思就是。在整个语料库C的范围内,给出任意一个词w,预测出其上下文u的概率要最大化。接下来我们再给出g(u)的形式:

上式中NEG(u)为负样本集合,何为负样本?考虑Skip-Gram模型的这样一个输入(w, context(x)),若该输入的标签不为context(w),则我们就说这个样本为一个负样本。其中,p(z|w)的概率可以表达为如下形式:

从上面的表达式可以看出该概率表达式将预测问题转化成了一个二分类问题,每个分类的结果用概率表示。分类正确的概率表达为sigmod函数下中心词的向量乘以一个参数,该参数是未知的。而分类错误的概率为一减分类正确的概率。上面概率用一个式子可以表达为:

我们可以对G取似然函数,也就是取log对数得到如下表达:

上式就是Skip-Gram模型的似然函数或者说优化函数了,我们接下来只需要求该似然函数关于v(w)和theta的偏导就能求解该问题了。然而在实际中我们并不是使用这个似然函数作为优化目标的,因为从该似然函数的形式中也可以看出,该似然函数针对每个词w的上下文context(w)都要求进行|context(w)|次负采样,这样的计算量太大,因此,我们重新定义一个似然函数,形式如下:

如上面的似然函数所示,现在针对一个context(w)只用一次负样本抽样就可以了。为了方便,我们将花括号内部的式子用一个标记代替:

则似然函数现在写作:

我们求解这个最优化问题。首先,我们求解该似然函数关于theta的导数,在求解之前首先要补充一个关于sigmod函数求导的公式,因为似然函数中的概率是以sigmod函数为基础计算的:

有了以上的基础知识我们就能够求似然函数关于theta的偏导函数了:

接着就能够构建关于theta的梯度更新公式,由于我们这里是最大化L,因此采用梯度上升公式:

然后我们求似然函数关于v(w)的偏导数,由于在式中v(w)和theta是以相乘关系在一起的,因此求关于v(w)的偏导结果可以参照关于theta的偏导结果直接给出:

词汇的向量编码更新公式为:

至于这里为什么要写成累加的形式是因为每个w向量的表达形式都是由{w} U NEG(w)来决定的,因此在计算梯度公式的时候也一定要将这些分量的贡献值都加上去。现在,我们已经有了关于theta和v(w)的梯度更新公式,只用按照似然函数的累加关系来迭代优化就可以了。需要说明的是theta和v(w)可以用正态分布或随机数来初始化。最后笔者还想再提一下负采样算法,也就是似然函数最后一个累加符号的NEG(w)该如何产生。

负采样算法

这种算法首先需要使用者传入一个值,这个值指定了每一次负采样产生的负样本数量。对于CBOW模型,它的样本是这样一种形式:(context(x), x),我们负采样的时候针对一个样本context(x)只用产生一个不同于x的标签值就可以了。而对于Skip-Gram模型,它的情况与CBOW模型恰恰相反,针对一个x,我们必须产生出一个不同于context(x)的上下文来。下面就介绍一下负采样算法的中心思想。

假设现在有一个语料库C,我们通过词频统计计算出语料库中出现频率最高的前N个词汇。首先定义一个词汇的“长度”:

公式中的counter函数返回一个词在语料库中出现的频度。需要说明的是:在Google发布的Word2Vec中,词汇长度计算公式中分子分母上的每一个counter函数返回值均有一个0.75的乘幂。得到了N个词汇的“长度”之后,我们可以将这些长度随机地放置在一条长度为1的线段上,由于词汇“长度”的计算中采取的是类似于softmax的形式,因此这N个词汇的“长度”相加一定等于1。然后我们再设置一条长度为1的线段与前面的对应,在这条线段上等长划分出M个小线段(M>N),这样可以保证上面线段中每个区间在下面线段中均至少有一个M的划分对应。

在负抽样时,我们首先传入负抽样的样本数记为c,程序在[1~m-1]的区间上产生c个随机数,然后再以这c个随机数为索引找到对应的m划分,每个m划分所对应的词汇长度线段所对应的词就是负抽样的结果。若我们对w词汇进行负抽样,不幸采样结果中也出现了w,那么标准的做法是删除这个采样结果再做一次。

实现

具体的实践部分详见github上的开源代码,下面只介绍一下实现的效果。实践部分笔者对一篇一千七百余万字的语料库做了分析,统计出出现频度前5000的词汇,并且用tensorflow的相关技术对Word2Vec做了实现,最后编码得到的5000个词汇向量如下所示:

词汇向量

在出现频度排前100位的词汇进行随机抽样,随机抽取出8个词汇,分析其语义相近的词汇,结果如下:

相似度

结果中<>内部的数字是相似程度。观察结果的第一条:

Nearst to three : four - <0.734>, five - <0.729>, two - <0.720>, eight - <0.702>, zero - <0.698>, six - <0.689>, seven - <0.666>, one - <0.657>

可以看出,和“three”语义相近的词汇均是英文中的数字词汇,且相似度都在60%以上说明这个模型的效果还是比较不错的。

开源

https://github.com/yhswjtuILMARE/Machine-Learning-Study-Notes/tree/master/python/RNN

2018年4月28日

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,189评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,577评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,857评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,703评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,705评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,620评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,995评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,656评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,898评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,639评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,720评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,395评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,982评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,953评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,195评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,907评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,472评论 2 342

推荐阅读更多精彩内容