CS224n自然语言处理与深度学习 Lecture Notes Two

本笔记主要内容翻译自斯坦福大学CS224n: Natural Language Processing with Deep Learning Lecture Notes: Part II 更多见iii.run

Global Vectors for Word Representation (GloVe)

Comparison with Previous Methods

要讲GloVe模型的思想方法,我们先介绍两个其他方法:

一个是基于奇异值分解(SVD)的LSA算法,该方法对term-document矩阵(矩阵的每个元素为tf-idf)进行奇异值分解,从而得到term的向量表示和document的向量表示。此处使用的tf-idf主要还是term的全局统计特征。

另一个方法是word2vec算法,该算法可以分为skip-gram 和 continuous bag-of-words(CBOW)两类,但都是基于局部滑动窗口计算的。即,该方法利用了局部的上下文特征(local context)

LSA和word2vec作为两大类方法的代表,一个是利用了全局特征的矩阵分解方法,一个是利用局部上下文的方法。

相比之下,GloVe 由一个加权最小二乘模型组成,在全局词-词共现统计上训练,即使用了语料库的全局统计(overall statistics)特征,也使用了局部的上下文特征(即滑动窗口)。

这样能有效地利用全局统计数据。这个模型生成了有意义的子结构的单词向量空间,在词类比任务上表现非常出色。

为了做到这一点GloVe模型引入了Co-occurrence Probabilities Matrix。

Co-occurrence Matrix

X 表示为词-词共现矩阵,其中 X_{ij} 表示词 j 出现在词 i 的上下文的次数。令 X_{i}=\sum_{k}X_{ik} 为任意词 k 出现在词 i 的上下文的次数。最后,令 P_{ij}=P(w_{j}\mid w_{i})=\frac{X_{ij}}{X_{i}} 是词 j 出现在词 i 的上下文的概率。
计算这个矩阵需要遍历一次整个语料库获得统计信息。对庞大的语料库,这样的遍历会产生非常大的计算量,但是这只是一次性的前期投入成本。

Least Squares Objective

回想一下 Skip\text{-}Gram 模型,我们使用 softmax 来计算词 j 出现在词 i 的上下文的概率。

Q_{ij}=\frac{exp(u_{j}^{T}v_{i})}{\sum_{w=1}^{W}exp(u_{w}^{T}v_{i})}

训练时以在线随机的方式进行,但是暗含全局交叉熵损失可以如下计算:

J=-\sum_{i\in corpus} \sum_{j\in context(i)}logQ_{ij}

同样的单词 ij 可能在语料库中出现多次,因此首先将 ij 相同的值组合起来更有效:

J=-\sum_{i=1}^{W}\sum_{j=1}^{W}X_{ij}log\;Q_{ij}

其中共现频率的值是通过共现矩阵 X 给定。交叉熵损失的一个显着缺点是要求分布 Q 被正确归一化,因为对整个词汇的求和的计算量是非常大的。因此,我们使用一个最小二乘的目标函数,其中 PQ 的归一化因子被丢弃了:

\widehat{J}=\sum_{i=1}^{W}\sum_{j=1}^{W}X_{i}(\widehat{P}_{ij}-\widehat{Q}_{ij})^{2}

其中 \widehat{P}_{ij}=X_{ij}\widehat{Q}_{ij}=exp(u_{j}^{T}v_{i}) 是非归一化分布。这个公式带来了一个新的问题,X_{ij} 经常会是很大的值,从而难以优化。一个有效的改变是最小化 \widehat{P}\widehat{Q} 对数的平方误差:

image

另外一个问题是权值因子 X_{i} 不能保证是最优的。因此,我们引入更一般化的权值函数,我们可以自由地依赖于上下文单词:

\widehat{J}=\sum_{i=1}^{W}\sum_{j=1}^{W}f(X_{ij})(u_{j}^{T}v_{i}-log\; X_{ij})^{2}

1.4、Conclusion

总而言之,GloVe 模型仅对单词共现矩阵中的非零元素训练,从而有效地利用全局统计信息,并生成有意义子结构的向量空间。给出相同的语料库,词汇,窗口大小和训练时间,它的表现都优于 word2vec,它可以更快地实现更好的效果,并且无论速度如何,都能获得最佳效果。

Evaluation of Word Vectors


到目前为止,我们已经讨论了诸如 Word2VecGloVe 来训练和发现语义空间中的自然语言词语的潜在向量表示。在这部分,我们讨论如何量化评估词向量的质量。

Intrinsic Evaluation

词向量的内部评估是对一组由如 Word2VecGloVe 生成的词向量在特定的中间子任务(如词类比)上的评估。这些子任务通常简单而且计算速度快,从而能够帮助我们理解生成的的词向量。内部评估通常应该返回给我们一个数值,来表示这些词向量在评估子任务上的表现。

在下图中,左子系统(红色)训练的计算量大,因此更改为一个简单的子系统(绿色)作内部评估。

image

动机:我们考虑一个目标是创建一个问答系统,其中使用词向量作为输入的例子。一个方法是训练一个机器学习系统:

  1. 输入词语
  2. 将输入词语转换为词向量
  3. 对一个复杂的机器学习系统,使用词向量作为输入
  4. 将输出的词向量通过系统映射到自然语言词语上。
  5. 生成词语作为答案

当然,在训练这样的一个问答系统的过程中,我们需要创建最有的词向量表示,因为它们被用在下游子系统(例如深度神经网络)。在实际操作中,我们需要对 Word2Vec 子系统中的许多超参数进行调整(例如词向量的维度)。虽然最理想的方法是在 Word2Vec 子系统中的任何参数改变后都重新训练训练,但从工程角度来看是不实际的,因为机器学习系统(在第3步)通常是一个深层神经网络,网络中的数百万个参数需要很长的时间训练。在这样的情况下,我们希望能有一个简单的内部评估技术来度量词向量子系统的好坏。显然,一个要求是内部评价与最终任务的表现有正相关关系。

Extrinsic Evaluation

词向量的外部评估是对一组在实际任务中生成的词向量的评估。这些任务通常复杂而且计算速度慢。对我们上面的例子,允许对问题答案进行评估的系统是外部评估系统。通常,优化表现不佳的外部评估系统我们难以确定哪个特定子系统存在错误,这就需要进一步的内部评估。

Intrinsic Evaluation Example: Word Vector Analogies

一个比较常用的内部评估的方法是词向量的类比。在词向量类比中,给定以下形式的不完整类比:

a:b:\;:c:\;?

然后内部评估系统计算词向量的最大余弦相似度:

d=arg\max_{i}\frac{(x_{b}-x_{a}+x_{c})^{T}x_{i}}{|x_{b}-x_{a}+x_{c}|}

这个指标有直观的解释。理想的情况下,我们希望 x_{b}-x_{a}=x_{d}-x_{c}(例如,queen-king=actress-actor)。这就暗含着我们希望 x_{b}-x_{a}+x_{c}=x_{d}。因此,我们确定可以最大化两个词向量之间的归一化点积的向量 x_{d} 即可(即余弦相似度)。使用诸如词向量类比的内部评估技术应该小心处理(要考虑到预训练的语料库的各个方面)。例如,考虑以下的类比形式:

City\;1:State\;containing\;City\;1:\;:City\;2:State\;containing\;City\;2

[图片上传中...(image.png-fc92e1-1533863983581-0)]

上图是可能受到具有相同名称的不同城市的语义词向量类比(内在评估)。在上面很多的例子,美国有很多同名的城市/城镇/村庄。因此,很多州都符合正确的答案。例如,在美国至少有 10 个地方的名称是 Phoenix,所以 Arizona 不是唯一的正确答案。在考虑以下的类比形式:

Capital\;City\;1:\;Country\;1:\;:Capital\;City\;2:\;Country\;2

[图片上传失败...(image-4b7ea4-1533865191108)]

上图是可能在不同时间点有不同首都的国家的语义词向量类比(内在评估)。上面很多的例子,这个任务中生成的城市仅仅是近期的国家首都。例如,1997 年之前 Kazakhstan 的首都是 Almaty。因此,如果我们的语料库过时就会出现问题。

之前的两个例子说明如何使用词向量进行语义测试。我们也可以使用词向量类似进行语法测试。以下内部评估测试词向量来捕获形容词的最高级概念的能力,如下图所示:
[图片上传失败...(image-a88542-1533865191108)]

类似地,下图的内部评估展示了测试词向量捕获过去时态概念的能力:
[图片上传失败...(image-5ddd43-1533865191108)]

2.4、Intrinsic Evaluation Tuning Example: Analogy Evaluations

我们现在探讨使用内在评估系统(如类比系统)来调整的词向量嵌入技术(如 Word2VecGloVe)中的超参数。我们首先来看看在类比评估任务中,在相同的超参数下,由不同方法创建的词向量表现效果:
[图片上传失败...(image-c3d864-1533865191108)]

根据上表,我们可以看到 3 点:

  • 模型的表现高度依赖使用词向量的模型:

    这点是可以预期到的,因为不同的生成词向量方法是基于不同的特性的(例如共现技术,奇异向量等等)。

  • 语料库更大模型的表现更好:

    这是因为模型训练的语料越大,模型的表现就会更好。例如,如果训练的时候没有包含测试的词语那么词类比会产生错误的结果。

  • 对于极高或者极低维度的词向量,模型的表现较差:

    低维度的词向量不能捕获在语料库中不同词语的意义。这可以被看作是我们的模型复杂度太低的高偏差问题。例如,我们考虑单词“king”、“queen”、“man”、“woman”。直观上,我们需要使用例如“性别”和“领导”两个维度来将它们编码成 2 字节的词向量。维度较低的词向量不会捕获四个单词之间的语义差异,而过高的维度的可能捕获语料库中无助于泛化的噪声-即所谓的高方差问题。

tips: GloVe 中使用中心词左右的窗口大小为 8 时模型表现较好。

下图可以看到训练时间对模型表现的影响
[图片上传失败...(image-463d33-1533865191108)]

下图可以看到增加语料库规模对模型准确度的影响
[图片上传失败...(image-f6d234-1533865191108)]

下图可以看到不同超参数对 GloVe 模型准确度的影响
[图片上传失败...(image-f7cee9-1533865191108)]

2.5、Intrinsic Evaluation Example: Correlation Evaluation

另外一个评估词向量质量的简单方法是,让人去给两个词的相似度在一个固定的范围内(例如 0-10)评分,然后将其与对应词向量的余弦相似度进行对比。这已经在包含人为评估的各种数据集上尝试过。

下图是不同方法生成的词向量和认为评估的相关性:
[图片上传失败...(image-30e6f3-1533865191108)]

2.6 Further Reading: Dealing With Ambiguity

我们想知道如何处理在不同的自然语言处理使用场景下,用不同的的词向量来捕获同一个单词在不同场景下的不同用法。例如,“run”是一个名词也是一个动词,在不同的语境中它的词性也会不同。论文《Improving Word Representations Via Global Context And Multiple Word Prototypes》提出上述问题的的解决方法。该方法的本质如下:

  1. 对所有出现的词,收集其固定大小上下文窗口(例如,前 5 个和后 5 个)。
  2. 每个上下文使用上下文词向量的加权平均值来表示。
  3. 用球面 k\text{-}means 对这些上下文表示进行聚类。
  4. 最后,每个出现的单词都重新标签为其相关联的类,同时对这个类,来训练对应的词向量。

3、Training for Extrinsic Tasks

3.1、Problem Formulation

很多 NLP 的任务都可以表述为分类任务。例如,给定一个句子,我们可以对这个句子做情感分类,判断其类别为正面,负面还是中性。相似地,在命名实体识别(NER),给定一个上下文和一个中心词,我们想将中心词分类为许多类别之一。对输入,“Jim bought 300 shares of Acme\;Corp. in 2006”,我们希望有这样的一个分类结果:“\[Jim\]_{Person} bought 300 shares of \[Acme\;Corp.\]_{Organization} in \[2006\]_{Time}”。

对这类问题,我们一般有以下形式的训练集:

\{x^{(i)},y^{(i)}\}_{1}^{N}

其中 x^{(i)} 是一个 d 维的词向量,y^{(i)} 是一个 C 维的 one\text{-}hot 向量,表示我们希望最终预测的标签(情感,其他词,专有名词,买/卖决策等)。

我们可以使用诸如逻辑回归和 SVM 之类的算法对 2\text{-}D 词向量来进行分类,如下图所示
[图片上传失败...(image-a4dcbf-1533865191108)]

在一般的机器学习任务中,我们通常固定输入数据和目标标签,然后使用优化算法来训练权重(例如梯度下降,L\text{-}BFGS,牛顿法等等)。然而在 NLP 应用中,我们引入一个新的想,当训练外部任务的时候,重新训练输入的词向量。下面我们讨论何时使用和为什么要这样做。

3.2、Retraining Word Vectors

正如我们迄今所讨论的那样,我们用于外部评估的词向量是通过一个简单的内部评估来进行优化并初始化。在许多情况下,这些预训练的词向量在外部评估中表现良好。但是,这些预训练的词向量在外部评估中的表现仍然有提高的可能。然而,重新训练存在着一定的风险。

如果我们在外部评估中重新训练词向量,这就需要保证训练集足够大并能覆盖词汇表中大部分的单词。这是因为 Word2VecGloVe 产生语义相关的词以位于单词空间的相同部分。如果我们在很小的词汇表上重新训练这些词,这些词就会在词空间移动,因此在最终的任务上,模型的表现反而会降低。

让我们使用一个例子来探讨上述的问题,下图中单词“Telly”,“TV”和“Television”在重新训练前的分类是正确的。
[图片上传失败...(image-792714-1533865191108)]

Telly”,“TV”出现在外部评估的训练集中,但是“Television”只在测试集中出现。因此在下图中,可以看到重新训练后“Telly”,“TV”分类正确,但是“Television”分类错误,原因在于“Television”没有出现在训练集中。
[图片上传失败...(image-e124d9-1533865191108)]

因此,如果在训练集很小的情况下,词向量不应该重新训练。如果训练集很大,重新训练可以提升最终表现。

3.3、Softmax Classification and Regularization

我们考虑使用 Softmax 分类函数,函数形式如下所示:

p(y_{j}=1\mid x)=\frac{exp(W_{j.}x)}{\sum_{c=1}^{C}exp(W_{c.}x)}
这里我们计算词向量 x 是类别 j 的概率。使用交叉熵损失函数,计算一个样例的损失如下所示:

-\sum_{j=1}^{C}y_{j}\,log(p(y_{j}=1\mid x))=-\sum_{j=1}^{C}y_{j}\,log\bigg(\frac{exp(W_{j.}x)}{\sum_{c=1}^{C}exp(W_{c.}x)}\bigg)

当然,上述求和是对 (C-1) 个零值求和,因为 y_{j} 仅在单个索引为 1,这意味着 x 仅属于 1 个正确的类别。现在我们定义 k 为正确类别的索引。因此,我们现在可以简化损失函数:

-log\bigg(\frac{exp(W_{k.}x)}{\sum_{c=1}^{C}exp(W_{c.}x)}\bigg)

然后我们可以扩展为有 N 个单词的损失函数:

-\sum_{i=1}^{N}log\bigg(\frac{exp(W_{k(i).}x^{(i)})}{\sum_{c=1}^{C}exp(W_{c.}x^{i})}\bigg)

上面公式的唯一不同是 k(i) 现在一个函数,返回 x^{(i)} 对应的每正确的类的索引。

现在我们来估计一下同时训练模型的权值 (W) 和词向量 (x) 时参数的树木。我们知道一个简单的线性决策模型至少需要一个 d 维的词向量输入和生成一个 C 个类别的分布。因此更新模型的权值,我们需要 C \cdot d 个参数。如果我们也对词汇表 V 中的每个单词都更新词向量,那么就要更新 |V| 个词向量,每一个的维度是 d 维。因此对一个简单的线性分类模型,总共的参数数目是 C \cdot d + |V|

\nabla_{\theta}J(\theta) = \begin{bmatrix} \nabla_{W_{.1}} \ \vdots \ \nabla_{W_{.d}} \ \nabla_{aardvark} \ \vdots \ \nabla_{zebra} \end{bmatrix}

对于一个简单的模型来说,这是相当大的参数量-这样的参数量很可能会出现过拟合的问题。

为了降低过拟合的风险,我们引入一个正则项,从贝叶斯派的思想看,这个正则项是对模型的参数加上一个先验分布,让参数变小(即接近于 0):

-\sum_{i=1}^{N}log\bigg(\frac{exp(W_{k(i).}x^{(i)})}{\sum_{c=1}^{C}exp(W_{c.}x^{i})}\bigg)+\lambda\sum_{k=1}^{C \cdot d + |V|\cdot d} \theta_{k}^{2}

如果调整好目标权重 \lambda 的值,最小化上面的函数将会降低出现很大的参数值的可能性,同时也提高模型的泛化能力。在我们使用更多参数更复杂的模型(例如神经网络)时,就更加需要正则化的思想。

3.4、Window Classification

下图是我们有一个中心词和一个长度为 2 的对称窗口。这样的上下文可以帮助分辨 Paris 是一个地点还是一个名字。
[图片上传失败...(image-a6a185-1533865191108)]

目前为止,我们主要探讨了使用单个单词向量 x 预测的外部评估任务。在现实中,因为自然语言处理的性质,这几乎不会有这样的任务。在自然语言处理中,常常存在着一词多义的情况,我们一般要利用词的上下文来判断其不同的意义。例如,如果你要某人解释“to sanction”是什么意思,你会马上意识到根据“to sanction”的上下文其意思可能是“to sanction”或者“to sanction”。在更多的情况下,我们使用一个词序列作为模型的输入。这个序列是由中心词向量和上下文词向量组成。上下文中的词的数量也被称作是上下文窗口大小,其大小在不同的任务中取不同的值。一般来说,窄窗口在句义
测试中表现较好,但是在语义测试中宽窗口的表现较好。

为了将之前讨论的 Softmax 模型修改为使用词窗口来进行分类,我们只需要按照下面形式将 x^{(i)} 替换为 x_{window}^{(i)}

x_{window}^{(i)} = \begin{bmatrix} x^{(i-2)} \ x^{(i-1)} \ x^{(i)} \ x^{(i+1)} \ x^{(i+2)} \end{bmatrix}

因此,当我们计算单词的损失梯度如下所示,当然需要分配梯度来更新相应的词向量:

x_{window}^{(i)} = \begin{bmatrix} \nabla_{x^{(i-2)}} \ \nabla_{x^{(i-1)}} \ \nabla_{x^{(i)}} \ \nabla_{x^{(i+1)}} \ \nabla_{x^{(i+2)}} \end{bmatrix}

Non-linear Classifiers

我们现在介绍一下飞线性分类模型,例如神经网络。在下图中,我们看到即使是最优的线性分类平面,也有许多样例都被错误的分类。这是因为线性模型在这个数据集上的分类能力有限。
[图片上传失败...(image-3f9632-1533865191108)]

在下图中,我们看到非线性分类模型可以对上面的数据集的样例有着更好的分类结果,这个简答的例子可以初步的说明我们为什么需要非线性模型。
[图片上传失败...(image-cd91a6-1533865191108)]

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342

推荐阅读更多精彩内容

  • 以西瓜书为主线,以其他书籍作为参考进行补充,例如《统计学习方法》,《PRML》等 第一章 绪论 1.2 基本术语 ...
    danielAck阅读 4,484评论 0 6
  • References: 《speech and language processing 》2nd & 3rd 《统...
    艺术叔阅读 7,473评论 1 8
  • 在一起时,觉得永远不会分开,突然就有那么一天,分开了。 匆忙,决绝。 承受不住回忆的轰炸, 在别人往脑海里放橡皮擦...
    张夕颜阅读 188评论 0 0
  • 真正的沟通在语言之外眼神之外动作之外甚至在表情之外他只能在你的内心而心灵如灯灯光铺设了无数条道路不论哪一条都绞杀了...
    沐玉声声阅读 308评论 3 5
  • 下班以后,和同事组团去玩桌游。挑了一个不认识的场子。 自己玩游戏的水平一向比较菜鸟。其中过程就不详细赘述。 倒是有...
    diy1947阅读 120评论 0 0