word2vec模型(1) - 背景

word2vec主要解决的问题是,把词典中的词表示成一个词向量(或词嵌入,word embedding,把词嵌入到一个向量空间中),这个向量是低维的、稠密的。通过研究词向量的性质,可以得到词之间的各种性质,如距离、相似性等。

1. 统计语言模型

自然语言处理中的一个基本问题:如何计算一段文本序列在某种语言下出现的概率?
统计语言模型给出了这一类问题的一个基本解决框架。对于一段文本序列S=w1,w2,...,wT,它的概率可以表示为:

2. N-gram模型
因为参数空间巨大,所以模型实际上不可用。通过限定过去的N-1个词语,可以得到简化版的N-gram模型,即

3. 从one-hot vector到dense vector
本质上,N-gram对词的表示是one-hot的离散表示,存在问题:1.参数空间随着N成指数增长,当词典数量较大时存在维度灾难问题;2.无法理解词与词之间的内在联系,无法建模出多个相似词的关系。

通过引入稠密向量(dense vector),从离散表示到连续表示,可以解决上面的问题:1. one-hot向量维度大小与词典成正比,稠密向量大小是固定值(50~300);2. 稠密向量各维度值是实数,不限于0和1,可以表示连续空间,可以通过计算距离度量词与词之间的相似度。类似的思想还有IR中的向量空间模型(VSM)。

4. 分布表示与cooccurence矩阵
与词的向量表示相独立的一个问题是,怎样表示一个词的意义?通过分布表示(distributional representation),即上下文环境相似的两个词有着相近的语义,可以度量词之间的相似性。
通过统计上下文中共同出现(cooccurence)的词对,得到cooccurence矩阵,可以用来描述词之间的关系。然而这个矩阵本质上也是one-hot的,存在维度灾难问题,传统方式是对它进行SVD降维表示。

5. NNLM
鉴于N-gram等模型的不足,2003年Bengio等人用神经网络建立统计语言模型的框架NNLM(Neural Network Language Model)。它是一个词嵌入+前馈神经网络,通过前n-1个词来预测第n个词的概率。

流程如下:

  • 通过将词特征层(或嵌入层,embedding layer),提取词向量
    将前n-1个词从one-hot vector转换成dense vector。转换矩阵是一个共享参数矩阵C,维度为|V|*m,|V|表示词典大小,m表示dense vector的维度大小。
  • 基于词向量,训练浅层前馈神经网络
    • 输入层((n-1)*m个神经元)
    • 隐藏层(h个神经元),激活函数tanh
    • 输出层(|V|个神经元),通过softmax输出词典中每个词的概率。注意论文里有输入层到输出层的连接



    • 损失函数:cross-entropy + 正则项

模型的参数空间为 θ = (b,d,W,U,H,C),通过梯度递降来训练。

NNLM引入了连续的词向量和平滑的概率模型,我们就可以在一个连续空间里对序列概率进行建模,从而从根本上缓解数据稀疏性和维度灾难的问题。

NNLM存在的问题:1. 只能处理固定长度的模型;2. 参数空间巨大,训练速度慢。

6. word2vec

针对NNLM的问题,在两个步骤中(词向量提取、神经网络训练),计算瓶颈主要在第二个步骤。如果只想得到词向量,可以对神经网络进行简化:

  • 移除隐藏非线性激活层:直接将embedding layer与输出层的softmax layer连接;
  • 忽略序列信息:输入的所有词向量汇总到同一个embedding layer;
  • 增加上下文窗口:将future words纳入上下文环境

得到了word2vec的CBOW模型(Continuous Bag-of-Words Model)。它依然是从context对target word的预测中学习到词向量的表达。

相反,如果从target word对context的预测中学习到word vector,则得到word2vec的skip-gram模型(名称源于该模型在训练时会对上下文环境里的word进行采样)。

关于word2vec的细节将在下一篇中讲述。

参考资料

  1. https://www.cnblogs.com/iloveai/p/word2vec.html
  2. NNLM论文: http://jmlr.org/papers/volume3/bengio03a/bengio03a.pdf
  3. stanford CS224d 课程讲义:
    http://cs224d.stanford.edu/syllabus.html
    http://cs224d.stanford.edu/lectures/CS224d-Lecture2.pdf
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容