[C5W2] Sequence Models - Natural Language Processing and Word Embeddings
第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)
词汇表征(Word Representation)
上周我们学习了 RNN、GRU 单元和 LSTM 单元。本周你会看到我们如何把这些知识用到 NLP 上,用于自然语言处理,深度学习已经给这一领域带来了革命性的变革。其中一个很关键的概念就是词嵌入(word embeddings),这是语言表示的一种方式,可以让算法自动的理解一些类似的词,比如男人对女人,比如国王对王后,还有其他很多的例子。通过词嵌入的概念你就可以构建 NLP 应用了,即使你的模型标记的训练集相对较小。这周的最后我们会消除词嵌入的偏差,就是去除不想要的特性,或者学习算法有时会学到的其他类型的偏差。
现在我们先开始讨论词汇表示,目前为止我们一直都是用词汇表来表示词,上周提到的词汇表,可能是 10000 个单词,我们一直用 one-hot 向量来表示词。比如如果 man 在词典里是第 5391 个,那么就可以表示成一个向量,只在第 5391 处为 1,我们用 \(O_{5391}\) 代表这个量,这里的 \(O\) 代表 one-hot。接下来,如果 woman 是编号 9853,那么就可以用 \(O_{9853}\) 来表示,这个向量只在 9853 处为 1,其他为 0,其他的词 king、queen、apple、orange 都可以这样表示出来,这种表示方法的一大缺点就是它把每个词孤立起来,这样使得算法对相关词的泛化能力不强。
举个例子,假如你已经学习到了一个语言模型,当你看到 "I want a glass of orange ___",那么下一个词会是什么?很可能是 juice。即使你的学习算法已经学到了 "I want a glass of orange juice" 这样一个很可能的句子,但如果看到 "I want a glass of apple ___",因为算法不知道 apple 和 orange 的关系很接近,就像 man 和 woman,king 和 queen 一样。所以算法很难从已经知道的 orange juice 是一个常见的东西,而明白 apple juice 也是很常见的东西或者说常见的句子。这是因为任何两个 one-hot 向量的内积都是 0,如果你取两个向量,比如 king 和 queen,然后计算它们的内积,结果就是 0。如果用 apple 和 orange 来计算它们的内积,结果也是 0。很难区分它们之间的差别,因为这些向量内积都是一样的,所以无法知道 apple 和 orange 要比 king 和 orange,或者 queen 和 orange 相似地多。
换一种表示方式会更好,如果我们不用 one-hot 表示,而是用特征化的形式来表示每个词,man,woman,king,queen,apple,orange 或者词典里的任何一个单词,然后让算法学习这些词的特征或者数值。
举个例子,对于这些词,比如我们想知道这些词与 Gender(性别)的关系。假定男性的性别为 -1,女性的性别为 +1,那么 man 的性别值可能就是 -1,而 woman 就是 -1。最终根据经验 king 就是 -0.95,queen 是 +0.97,apple 和 orange 没有性别可言。
另一个特征可以是这些词有多 Royal(高贵),所以这些词,man,woman 和高贵没太关系,所以它们的特征值接近 0。而 king 和 queen 很高贵,apple 和 orange 跟高贵也没太大关系。
那么 Age(年龄)呢?man 和 woman 一般没有年龄的意思,也许 man 和 woman 隐含着成年人的意思,但也可能是介于 young 和 old 之间,所以它们(man 和 woman)的值也接近 0。而通常 king 和 queen 都是成年人,apple 和 orange 跟年龄更没什么关系了。
还有一个特征,这个词是否是 Food(食物),man 不是食物,woman 不是食物,king 和 queen 也不是,但 apple 和 orange 是食物。
当然还可以有很多的其他特征,从 Size(尺寸大小),Cost(花费多少),这个东西是不是 alive(活的),是不是一个 Action(动作),或者是不是 Noun(名词)或者是不是 Verb(动词),还是其他的等等。
所以你可以想很多的特征,为了说明,我们假设有 300 个不同的特征,这样的话你就有了这一列数字,这里我只写了 4 个,实际上是 300 个数字,这样就组成了一个 300 维的向量来表示 man 这个词。接下来,我想用 \(e_{5391}\) 这个符号来表示。同样这个 300 维的向量,我用 \(e_{9853}\) 代表这个 300 维的向量用来表示 woman 这个词,其他的例子也一样。现在,如果用这种表示方法来表示 apple 和 orange 这些词,那么 apple 和 orange 的这种表示肯定会非常相似,可能有些特征不太一样,因为 orange 的颜色口味,apple 的颜色口味,或者其他的一些特征会不太一样,但总的来说 apple 和 orange 的大部分特征实际上都一样,或者说都有相似的值。这样对于已经知道 orange juice 的算法很大几率上也会明白 apple juice 这个东西,这样对于不同的单词算法会泛化的更好。
后面的几节课,我们会找到一个学习词嵌入的方式,这里只是希望你能理解这种高维特征的表示能够比 one-hot 更好的表示不同的单词。而我们最终学习的特征不会像这里一样这么好理解,没有像第一个特征是性别,第二个特征是高贵,第三个特征是年龄等等这些,新的特征表示的东西肯定会更难搞清楚。尽管如此,接下来要学的特征表示方法却能使算法高效地发现 apple 和 orange 会比 king 和 orange,queen 和 orange 更加相似。
如果我们能够学习到一个 300 维的特征向量,或者说 300 维的词嵌入,通常我们可以做一件事,把这 300 维的数据嵌入到一个二维空间里,这样就可以可视化了。常用的可视化算法是 t-SNE 算法,来自于 Laurens van der Maaten 和 Geoff Hinton 的论文。如果观察这种词嵌入的表示方法,你会发现 man 和 woman 这些词聚集在一块,king 和 queen 聚集在一块,这些都是人,也都聚集在一起。动物都聚集在一起,水果也都聚集在一起,像 1、2、3、4 这些数字也聚集在一起。如果把这些生物看成一个整体,他们也聚集在一起。
在网上你可能会看到像这样的图用来可视化,300 维或者更高维度的嵌入。希望你能有个整体的概念,这种词嵌入算法对于相近的概念,学到的特征也比较类似,在对这些概念可视化的时候,这些概念就比较相似,最终把它们映射为相似的特征向量。这种表示方式用的是在 300 维空间里的特征表示,这叫做嵌入(embeddings)。之所以叫嵌入的原因是,你可以想象一个 300 维的空间,我画不出来 300 维的空间,这里用个 3 维的代替。现在取每一个单词比如 orange,它对应一个 3 维的特征向量,所以这个词就被嵌在这个 3 维空间里的一个点上了,apple这个词就被嵌在这个 3 维空间的另一个点上了。为了可视化,t-SNE 算法把这个空间映射到低维空间,你可以画出一个 2 维图像然后观察,这就是这个术语嵌入的来源。
在自然语言处理(NLP)领域,词嵌入已经是最重要的概念之一了。本节课程中你已经知道为什么要学习或者使用词嵌入了,下节课我们会深入讲解如何用这些算法构建 NLP 算法。
使用词嵌入(Using Word Embeddings)
上节课中,你已经了解不同单词的特征化表示了。这节你会看到我们如何把这种表示方法应用到 NLP 应用中。
我们从一个例子开始,我们继续用命名实体识别的例子,如果你要找出人名,假如有一个句子:"Sally Johnson is an orange farmer."(Sally Johnson 是一个种橙子的农民),你会发现 Sally Johnson 就是一个人名,所以这里的输出为 1。之所以能确定 Sally Johnson 是一个人名而不是一个公司名,是因为你知道种橙子的农民一定是一个人,前面我们已经讨论过用 one-hot 来表示这些单词,\(x^{<1>}\) ,\(x^{<2>}\) 等等。
但是如果你用特征化表示方法,嵌入的向量,也就是我们在上节课中讨论的。那么用词嵌入作为输入训练好的模型,如果你看到一个新的输入:"Robert Lin is an apple farmer."(Robert Lin 是一个种苹果的农民),因为知道 orange 和 apple 很相近,那么你的算法很容易就知道 Robert Lin 也是一个人,也是一个人的名字。一个有意思的情况是,要是测试集里这句话不是 "Robert Lin is an apple farmer.",而是不太常见的词怎么办?要是你看到:"Robert Lin is a durian cultivator."(Robert Lin 是一个榴莲培育家)怎么办?榴莲(durian)是一种比较稀罕的水果,这种水果在新加坡和其他一些国家流行。如果对于一个命名实体识别任务,你只有一个很小的标记的训练集,你的训练集里甚至可能没有 durian(榴莲)或者 cultivator(培育家)这两个词。但是如果你有一个已经学好的词嵌入,它会告诉你 durian(榴莲)是水果,就像 orange(橙子)一样,并且 cultivator(培育家),做培育工作的人其实跟 farmer(农民)差不多,那么你就有可能从你的训练集里的 "an orange farmer"(种橙子的农民)归纳出 "a durian cultivator"(榴莲培育家)也是一个人。
词嵌入能够达到这种效果,其中一个原因就是学习词嵌入的算法会考察非常大的文本集,也许是从网上找到的,这样你可以考察很大的数据集可以是 1 亿个单词,甚至达到 100 亿也都是合理的,大量的无标签的文本的训练集。通过考察大量的无标签文本,很多都是可以免费下载的,你可以发现 orange(橙子)和 durian(榴莲)相近,farmer(农民)和 cultivator(培育家)相近。因此学习这种嵌入表达,把它们都聚集在一块,通过读取大量的互联网文本发现了 orange(橙子)和 durian(榴莲)都是水果。接下来你可以把这个词嵌入应用到你的命名实体识别任务当中,尽管你只有一个很小的训练集,也许训练集里有 100,000 个单词,甚至更小,这就使得你可以使用迁移学习,把你从互联网上免费获得的大量的无标签文本中学习到的知识,能够分辨 orange(橙子)、apple(苹果)和 durian(榴莲)都是水果的知识,然后把这些知识迁移到一个任务中,比如你只有少量标记的训练数据集的命名实体识别任务中。当然了,这里为了简化我只画了单向的 RNN,事实上如果你想用在命名实体识别任务上,你应该用一个双向的 RNN,而不是这样一个简单的。
总结一下,这是如何用词嵌入做迁移学习的步骤。
第一步,先从大量的文本集中学习词嵌入。一个非常大的文本集,或者可以下载网上预训练好的词嵌入模型,网上你可以找到不少,词嵌入模型并且都有许可。
第二步,你可以用这些词嵌入模型把它迁移到你的新的只有少量标注训练集的任务中,比如说用这个 300 维的词嵌入来表示你的单词。这样做的一个好处就是你可以用更低维度的特征向量代替原来的 10000 维的 one-hot 向量,现在你可以用一个 300 维更加紧凑的向量。尽管 one-hot 向量很快计算,而学到的用于词嵌入的 300 维的向量会更加紧凑。
第三步,当你在你新的任务上训练模型时,在你的命名实体识别任务上,只有少量的标记数据集上,你可以自己选择要不要继续微调,用新的数据调整词嵌入。实际中,只有这个第二步中有很大的数据集你才会这样做,如果你标记的数据集不是很大,通常我不会在微调词嵌入上费力气。
当你的任务的训练集相对较小时,词嵌入的作用最明显,所以它广泛用于 NLP 领域。我只提到一些,不要太担心这些术语(后面列举的一些 NLP 任务),它已经用在命名实体识别,用在文本摘要,用在文本解析、指代消解,这些都是非常标准的 NLP 任务。
词嵌入在语言模型、机器翻译领域用的少一些,尤其是你做语言模型或者机器翻译任务时,这些任务你有大量的数据。在其他的迁移学习情形中也一样,如果你从某一任务 A 迁移到某个任务 B,只有 A 中有大量数据,而 B 中数据少时,迁移的过程才有用。所以对于很多 NLP 任务这些都是对的,而对于一些语言模型和机器翻译则不然。
最后,词嵌入和人脸编码之间有奇妙的关系,你已经在前面的课程学到了关于人脸编码的知识了,如果你上了卷积神经网络的课程的话。你应该还记得对于人脸识别,我们训练了一个 Siamese 网络结构,这个网络会学习不同人脸的一个 128 维表示,然后通过比较编码结果来判断两个图片是否是同一个人脸,这个词嵌入的意思和这个差不多。在人脸识别领域大家喜欢用编码这个词来指代这些向量 \(f(x^{\left(i \right)})\),\(f(x^{\left( j\right)})\),人脸识别领域和这里的词嵌入有一个不同就是,在人脸识别中我们训练一个网络,任给一个人脸照片,甚至是没有见过的照片,神经网络都会计算出相应的一个编码结果。上完后面几节课,你会更明白,我们学习词嵌入则是有一个固定的词汇表,比如 10000 个单词,我们学习向量 \(e_{1}\) 到 \(e_{10000}\),学习一个固定的编码,每一个词汇表的单词的固定嵌入,这就是人脸识别与我们接下来的几节课要讨论的算法之间的一个不同之处。这里的术语编码(encoding)和嵌入(embedding)可以互换,所以刚才讲的差别不是因为术语不一样,这个差别就是,人脸识别中的算法未来可能涉及到海量的人脸照片,而自然语言处理有一个固定的词汇表,而像一些没有出现过的单词我们就记为未知单词。
这节课里,你看到如何用词嵌入来实现这种类型的迁移学习,并且通过用之前的嵌入的向量替换原来的 one-hot 表示,你的算法会泛化的更好,你也可以从较少的标记数据中进行学习。接下来我会给你展示一些词嵌入的特性,这之后再讨论学习这些词嵌入的算法。下节课我们会看到词嵌入在做类比推理中发挥的作用。
词嵌入的特性(Properties of Word Embeddings)
到现在,你应该明白了词嵌入是如何帮助你构建自然语言处理应用的。词嵌入还有一个迷人的特性就是它还能帮助实现类比推理,尽管类比推理可能不是自然语言处理应用中最重要的,不过它能帮助人们理解词嵌入做了什么,以及词嵌入能够做什么,让我们来一探究竟。
这是一系列你希望词嵌入可以捕捉的单词的特征表示,假如我提出一个问题,man 如果对应 woman,那么 king 应该对应什么?你们应该都能猜到 king 应该对应 queen。能否有一种算法来自动推导出这种关系,下面就是实现的方法。
我们用一个四维向量来表示 man,我们用 \(e_{5391}\) 来表示,不过在这节课中我们先把它称为 \(e_{\text{man}}\),而旁边这个表示 woman 的嵌入向量,称它为 \(e_{\text{woman}}\),对 king 和 queen 也是用一样的表示方法。在该例中,假设你用的是四维的嵌入向量,而不是比较典型的 50 到 1000 维的向量。这些向量有一个有趣的特性,就是假如你有向量 \(e_{\text{man}}\) 和 \(e_{\text{woman}}\),将它们进行减法运算,即
\(\begin{align} e_{\text{man}} - e_{\text{woman}} & = \begin{bmatrix} -1 & 0.01 & 0.03 & 0.09 \end{bmatrix} - \begin{bmatrix} 1 & 0.02 & 0.02 & 0.01 \end{bmatrix} \\ & = \begin{bmatrix} -2 & -0.01 & 0.01 & 0.08 \end{bmatrix} \\ & \approx \begin{bmatrix} -2 & 0 & 0 & 0 & \end{bmatrix}\end{align}\)
类似的,假如你用 \(e_{\text{king}}\) 减去 \(e_{\text{queen}}\),最后也会得到一样的结果,即:
\(\begin{align} e_{\text{king}} - e_{\text{queen}} & = \begin{bmatrix} -0.95 & 0.93 & 0.70 & 0.02 \end{bmatrix} - \begin{bmatrix} 0.97 & 0.95 & 0.69 & 0.01 \end{bmatrix} \\ & = \begin{bmatrix} -1.92 & -0.02 & 0.01 & 0.01 \end{bmatrix} \\ & \approx \begin{bmatrix} -2 & 0 & 0 & 0 \end{bmatrix}\end{align}\)
这个结果表示,man 和 woman 主要的差异是 gender(性别)上的差异,而 king 和 queen 之间的主要差异,根据向量的表示,也是 gender(性别)上的差异,这就是为什么 \(e_{\text{man}}- e_{\text{woman}}\) 和 \(e_{\text{king}} - e_{\text{queen}}\) 结果是相同的。所以得出这种类比推理的结论的方法就是,当算法被问及 man 对 woman 相当于 king 对什么时,算法所做的就是计算 \(e_{\text{man}}-e_{\text{woman}}\),然后找出一个向量也就是找出一个词,使得 \(e_{\text{man}}-e_{\text{woman}} \approx e_{\text{king}}- e_{?}\),也就是说,当这个新词是 queen 时,式子的左边会近似地等于右边。这种思想首先是被 Tomas Mikolov 和 Wen-tau Yih 还有 Geoffrey Zweig 提出的,这是词嵌入领域影响力最为惊人和显著的成果之一,这种思想帮助了研究者们对词嵌入领域建立了更深刻的理解。
- Mikolov T, Yih W T, Zweig G. Linguistic regularities in continuous space word representations[J]. In HLT-NAACL, 2013.
让我们来正式地探讨一下应该如何把这种思想写成算法。在图中,词嵌入向量在一个可能有 300 维的空间里,于是单词 man 代表的就是空间中的一个点,另一个单词 woman 代表空间另一个点,单词 king 也代表一个点,还有单词 queen 也在另一点上。事实上,我们在上个幻灯片所展示的就是向量 man 和 woman 的差值非常接近于向量 king 和 queen 之间的差值,我所画的这个箭头代表的就是向量在 gender(性别)这一维的差,不过不要忘了这些点是在 300 维的空间里。为了得出这样的类比推理,计算当 man 对于 woman,那么 king 对于什么,你能做的就是找到单词 w 来使得,\(e_{\text{man}}-e_{\text{woman}} \approx e_{\text{king}} - e_{w}\) 这个等式成立,你需要的就是找到单词 w 来最大化 \(e_{w}\) 与 \(e_{\text{king}} - e_{\text{man}} + e_{\text{woman}}\) 的相似度,即:
Find\ word\ w : arg Max \ Sim\(\left(e_{w},e_{\text{king}} - e_{\text{man}} + e_{\text{woman}}\right)\)
所以我做的就是我把这个 \(e_{w}\) 全部放到等式的一边,于是等式的另一边就会是 \(e_{\text{king}}- e_{\text{man}} + e_{\text{woman}}\)。我们有一些用于测算 \(e_{w}\) 和 \(e_{\text{king}} -e_{\text{man}} + e_{\text{woman}}\) 之间的相似度的函数,然后通过方程找到一个使得相似度最大的单词,如果结果理想的话会得到单词 queen。值得注意的是这种方法真的有效,如果你学习一些词嵌入,通过算法来找到使得相似度最大化的单词 w,你确实可以得到完全正确的答案。不过这取决于过程中的细节,如果你查看一些研究论文就不难发现,通过这种方法来做类比推理准确率大概只有 30%~75%,只要算法猜中了单词,就把该次计算视为正确,从而计算出准确率,在该例子中,算法选出了单词 queen。
在继续下一步之前,我想再说明一下左边的这幅图,在之前我们谈到过用 t-SNE 算法来将单词可视化。t-SNE 算法所做的就是把这些 300 维的数据用一种非线性的方式映射到 2 维平面上,可以得知 t-SNE 中这种映射很复杂而且很非线性。在进行 t-SNE 映射之后,你不能总是期望使等式成立的关系,会像左边那样成一个平行四边形,尽管在这个例子最初的 300 维的空间内你可以依赖这种平行四边形的关系来找到使等式成立的一对类比,通过 t-SNE 算法映射出的图像可能是正确的。但在大多数情况下,由于 t-SNE 的非线性映射,你就没法再指望这种平行四边形了,很多这种平行四边形的类比关系在 t-SNE 映射中都会失去原貌。
现在,再继续之前,我想再快速地列举一个最常用的相似度函数,这个最常用的相似度函数叫做余弦相似度。这是我们上个幻灯片所得到的等式(下图中公式),在余弦相似度中,假如在向量 \(u\) 和 \(v\) 之间定义相似度 : \(\text{sim}\left(u,v\right) = \frac{u^{T}v}{||u||_2 ||v||_2}\)
现在我们先不看分母,分子其实就是 \(u\) 和 \(v\) 的内积。如果 \(u\) 和 \(v\) 非常相似,那么它们的内积将会很大,把整个式子叫做余弦相似度,其实就是因为该式是 \(u\) 和 \(v\) 的夹角的余弦值,所以这个角就是 \(\phi\) 角,这个公式实际就是计算两向量夹角 \(\phi\) 角的余弦。你应该还记得在微积分中,\(\phi\) 角的余弦图像是这样的,所以夹角为 0 度时,余弦相似度就是 1,当夹角是 90 度时余弦相似度就是 0,当它们是 180 度时,图像完全跑到了相反的方向,这时相似度等于 -1,这就是为什么余弦相似度对于这种类比工作能起到非常好的效果。如果你想的话,你还能用平方距离或者欧氏距离来表示 : \(||u-v||^2\)
从学术上来说,比起测量相似度,\(||u-v||^2\) 这个函数更容易测量的是相异度,所以我们需要对其取负,这个函数才能正常工作,不过我还是觉得余弦相似度用得更多一点,这两者的主要区别是它们对 \(u\) 和 \(v\) 之间的距离标准化的方式不同。
词嵌入的一个显著成果就是,可学习的类比关系的一般性。举个例子,它能学会 man 对于 woman 相当于 boy 对于 girl,因为 man 和 woman 之间和 king 和 queen 之间,还有 boy 和 girl 之间的向量差在 gender(性别)这一维都是一样的。它还能学习 Canada(加拿大)的首都是 Ottawa(渥太华),而渥太华对于加拿大相当于 Nairobi(内罗毕)对于 Kenya(肯尼亚),这些都是国家中首都城市名字。它还能学习 big 对于 bigger 相当于 tall 对于 taller,还能学习 Yen(円)对于 Janpan(日本),円是日本的货币单位,相当于 Ruble(卢比)对于 Russia(俄罗斯)。这些东西都能够学习,只要你在大型的文本语料库上实现一个词嵌入学习算法,只要从足够大的语料库中进行学习,它就能自主地发现这些模式。
在本节课中,你见到了词嵌入是如何被用于类比推理的,可能你不会自己动手构建一个类比推理系统作为一项应用,不过希望在这些可学习的类特征的表示方式能够给你一些直观的感受。你还看知道了余弦相似度可以作为一种衡量两个词嵌入向量间相似度的办法,我们谈了许多有关这些嵌入的特性,以及如何使用它们。下节课中,我们来讨论如何真正的学习这些词嵌入。
参考资料:
余弦相似度 为了测量两个词的相似程度,我们需要一种方法来测量两个词的两个嵌入向量之间的相似程度。 给定两个向量 \(u\) 和 \(v\),余弦相似度定义如下:
CosineSimilarity\({(u, v)} = \frac {u . v} {||u||_2 ||v||_2} = cos(\theta)\)
其中 \(u.v\) 是两个向量的点积(或内积),\(||u||_2\) 是向量 \(u\) 的范数(或长度),并且 \(\theta\) 是向量 \(u\) 和 \(v\) 之间的角度。这种相似性取决于角度在向量 \(u\) 和 \(v\) 之间。如果向量 \(u\) 和 \(v\) 非常相似,它们的余弦相似性将接近 1; 如果它们不相似,则余弦相似性将取较小的值。
图1:两个向量之间角度的余弦是衡量它们有多相似的指标,角度越小,两个向量越相似。
嵌入矩阵(Embedding Matrix)
接下来我们要将学习词嵌入这一问题具体化,当你应用算法来学习词嵌入时,实际上是学习一个嵌入矩阵,我们来看一下这是什么意思。
和之前一样,假设我们的词汇表含有 10,000 个单词,词汇表里有 a,aaron,orange,zulu,可能还有一个未知词标记 <UNK>。我们要做的就是学习一个嵌入矩阵 \(E\),它将是一个 300×10,000 的矩阵,如果你的词汇表里有 10,000 个,或者加上未知词就是 10,001 维。这个矩阵的各列代表的是词汇表中 10,000 个不同的单词所代表的不同向量。假设 orange 的单词编号是 6257,代表词汇表中第 6257 个单词,我们用符号 \(O_{6527}\) 来表示这个 one-hot 向量,这个向量除了第 6527 个位置上是 1,其余各处都为 0,显然它是一个 10,000 维的列向量,它只在一个位置上有 1,它不像图上画的那么短,它的高度应该和左边的嵌入矩阵的宽度相等。
假设这个嵌入矩阵叫做矩阵 \(E\),注意如果用 \(E\) 去乘以右边的 one-hot 向量,也就是 \(O_{6527}\),那么就会得到一个 300 维的向量,\(E\) 是 300×10,000 的,\(O_{6527}\) 是 10,000×1 的,所以它们的积是 300×1 的,即 300 维的向量。要计算这个向量的第一个元素,你需要做的是把 \(E\) 的第一行和 \(O_{6527}\) 的整列相乘,不过 \(O_{6527}\) 的所有元素都是 0,只有 6257 位置上是 1,最后你得到的这个向量的第一个元素就是 orange 这一列下的数字。然后我们要计算这个向量的第二个元素,就是把 \(E\) 的第二行和这个 \(O_{6527}\) 相乘,和之前一样,然后得到第二个元素,以此类推,直到你得到这个向量剩下的所有元素。
这就是为什么把矩阵 \(E\) 和这个 one-hot 向量相乘,最后得到的其实就是这个 300 维的列,就是单词 orange 下的这一列,它等于 \(e_{6257}\),这个符号是我们用来表示这个 300×1 的嵌入向量的符号,它表示的单词是 orange。
更广泛来说,假如说有某个单词 w,那么 \(e_{w}\) 就代表单词 w 的嵌入向量。同样,\(E \cdot O_{j}\),\(O_{j}\) 就是只有第 \(j\) 个位置是 1 的 one-hot 向量,得到的结果就是 \(e_{j}\),它表示的是字典中单词j的嵌入向量。
在这一小节中,要记住的一件事就是我们的目标是学习一个嵌入矩阵 \(E\)。在下节课中你将会随机地初始化矩阵 \(E\),然后使用梯度下降法来学习这个 300×10,000 的矩阵中的各个参数,\(E\) 乘以这个 one-hot 向量会得到嵌入向量。再多说一点,当我们写这个等式的时候,写出这些符号是很方便的,代表用矩阵 \(E\) 乘以 one-hot 向量 \(O_{j}\)。但当你动手实现时,用大量的矩阵和向量相乘来计算它,效率是很低下的,因为 one-hot 向量是一个维度非常高的向量,并且几乎所有元素都是 0,所以矩阵向量相乘效率太低,因为我们要乘以一大堆的 0。所以在实践中你会使用一个专门的函数来单独查找矩阵 \(E\) 的某列,而不是用通常的矩阵乘法来做,但是在画示意图时(上图所示,即矩阵 \(E\) 乘以 one-hot 向量示意图),这样写比较方便。但是例如在 Keras 中就有一个嵌入层,然后我们用这个嵌入层更有效地从嵌入矩阵中提取出你需要的列,而不是对矩阵进行很慢很复杂的乘法运算。
在本节课中你见到了在学习嵌入向量的过程中用来描述这些算法的符号以及关键术语,矩阵 \(E\) 它包含了词汇表中所有单词的嵌入向量。在下节课中,我们将讨论学习矩阵 \(E\) 的具体算法。
学习词嵌入(Learning Word Embeddings)
在本节课中,你将要学习一些具体的算法来学习词嵌入。在深度学习应用于学习词嵌入的历史上,人们一开始使用的算法比较复杂,但随着时间推移,研究者们不断发现他们能用更加简单的算法来达到一样好的效果,特别是在数据集很大的情况下。但有一件事情就是,现在很多最流行的算法都十分简单,如果我一开始就介绍这些简单的算法,你可能会觉得这有点神奇,这么简单的算法究竟是怎么起作用的?稍微复杂一些的算法开始,因为我觉得这样更容易对算法的运作方式有一个更直观的了解,之后我们会对这些算法进行简化,使你能够明白即使一些简单的算法也能得到非常好的结果,我们开始吧。
假如你在构建一个语言模型,并且用神经网络来实现这个模型。于是在训练过程中,你可能想要你的神经网络能够做到比如输入:"I want a glass of orange ___.",然后预测这句话的下一个词。在每个单词下面,我都写上了这些单词对应词汇表中的索引。实践证明,建立一个语言模型是学习词嵌入的好方法,我提出的这些想法是源于 Yoshua Bengio,Rejean Ducharme,Pascal Vincent,Rejean Ducharme,Pascal Vincent 还有 Christian Jauvin。
下面我将介绍如何建立神经网络来预测序列中的下一个单词,让我为这些词列一个表格,"I want a glass of orange",我们从第一个词 I 开始,建立一个 one-hot 向量表示这个单词 I。这是一个 one-hot 向量,在第 4343 个位置是 1,它是一个 10,000 维的向量。然后要做的就是生成一个参数矩阵 \(E\),然后用 \(E\) 乘以 \(O_{4343}\),得到嵌入向量 \(e_{4343}\),这一步意味着 \(e_{4343}\) 是由矩阵 \(E\) 乘以 one-hot 向量得到的。然后我们对其他的词也做相同的操作,单词 want 在第 9665 个,我们将 \(E\) 与这个 one-hot 向量 \(O_{9665}\) 相乘得到嵌入向量 \(e_{9665}\)。对其他单词也是一样,a 是字典中的第一个词,因为 a 是第一个字母,由 \(O_{1}\) 得到 \(e_{1}\)。同样地,其他单词也这样操作。
于是现在你有许多 300 维的嵌入向量。我们能做的就是把它们全部放进神经网络中,经过神经网络以后再通过 softmax 层,这个 softmax 也有自己的参数,然后这个 softmax 分类器会在 10,000 个可能的输出中预测结尾这个单词。假如说在训练集中有 juice 这个词,训练过程中 softmax 的目标就是预测出单词 juice,就是结尾的这个单词。这个隐藏层有自己的参数,我这里用 \(W^{\left\lbrack1 \right\rbrack}\) 和 \(b^{\left\lbrack 1\right\rbrack}\) 来表示,这个 softmax 层也有自己的参数 \(W^{\left\lbrack2 \right\rbrack}\) 和 \(b^{\left\lbrack 2\right\rbrack}\)。如果它们用的是 300 维大小的嵌入向量,而这里有 6 个词,所以用 6×300,所以这个输入会是一个 1800 维的向量,这是通过将这 6 个嵌入向量堆在一起得到的。
实际上更常见的是有一个固定的历史窗口,举个例子,你总是想预测给定四个单词后的下一个单词,注意这里的 4 是算法的超参数。这就是如何适应很长或者很短的句子,方法就是总是只看前 4 个单词,所以说我只用这 4 个(a glass of orange)单词,而不去看这几个词(I want)。如果你一直使用一个 4 个词的历史窗口,这就意味着你的神经网络会输入一个 1200 维的特征变量到这个隐藏层中,然后再通过 softmax 来预测输出,选择有很多种,用一个固定的历史窗口就意味着你可以处理任意长度的句子,因为输入的维度总是固定的。所以这个模型的参数就是矩阵 \(E\),对所有的单词用的都是同一个矩阵 \(E\),而不是对应不同的位置上的不同单词用不同的矩阵。然后这些权重也都是算法的参数,你可以用反向传播来进行梯度下降来最大化训练集似然,通过序列中给定的 4 个单词去重复地预测出语料库中下一个单词什么。
事实上通过这个算法能很好地学习词嵌入,原因是,如果你还记得我们的 orange jucie,apple juice 的例子,在这个算法的激励下,apple 和 orange 会学到很相似的嵌入,这样做能够让算法更好地拟合训练集,因为它有时看到的是 orange juice,有时看到的是 apple juice。如果你只用一个 300 维的特征向量来表示所有这些词,算法会发现要想最好地拟合训练集,就要使 apple(苹果)、orange(橘子)、grape(葡萄)和 pear(梨)等等,还有像 durian(榴莲)这种很稀有的水果都拥有相似的特征向量。
这就是早期最成功的学习词嵌入,学习这个矩阵 \(E\) 的算法之一。现在我们先概括一下这个算法,看看我们该怎样来推导出更加简单的算法。现在我想用一个更复杂的句子作为例子来解释这些算法,假设在你的训练集中有这样一个更长的句子:"I want a glass of orange juice to go along with my cereal."。我们在上个幻灯片看到的是算法预测出了某个单词 juice,我们把它叫做目标词,它是通过一些上下文,在本例中也就是这前 4 个词(a glass of orange)推导出来的。如果你的目标是学习一个嵌入向量,研究人员已经尝试过很多不同类型的上下文。如果你要建立一个语言模型,那么一般选取目标词之前的几个词作为上下文。但如果你的目标不是学习语言模型本身的话,那么你可以选择其他的上下文。
比如说,你可以提出这样一个学习问题,它的上下文是左边和右边的四个词,你可以把目标词左右各 4 个词作为上下文。这就意味着我们提出了一个这样的问题,算法获得左边 4 个词,也就是 a glass of orange,还有右边四个词 to go along with,然后要求预测出中间这个词 juice。提出这样一个问题,这个问题需要将左边的还有右边这 4 个词的嵌入向量提供给神经网络,就像我们之前做的那样来预测中间的单词是什么,来预测中间的目标词,这也可以用来学习词嵌入。
或者你想用一个更简单的上下文,也许只提供目标词的前一个词,比如只给出 orange 这个词来预测 orange 后面是什么,这将会是不同的学习问题。只给出一个词 orange 来预测下一个词是什么,你可以构建一个神经网络,只把目标词的前一个词或者说前一个词的嵌入向量输入神经网络来预测该词的下一个词。
还有一个效果非常好的做法就是上下文是附近一个单词,它可能会告诉你单词 glass 是一个邻近的单词。或者说我看见了单词 glass,然后附近有一个词和 glass 位置相近,那么这个词会是什么?这就是用附近的一个单词作为上下文。我们将在下节课中把它公式化,这用的是一种 Skip-Gram 模型的思想。这是一个简单算法的例子,因为上下文相当的简单,比起之前 4 个词,现在只有 1 个,但是这种算法依然能工作得很好。
研究者发现,如果你真想建立一个语言模型,用目标词的前面的几个单词作为上下文是常见做法。但如果你的目标是学习词嵌入,那么你就可以用这些其他类型的上下文,它们也能得到很好的词嵌入。我会在下节课详细介绍这些,我们会谈到 Word2Vec 模型。
总结一下,在本节课中你学习了语言模型问题,模型提出了一个机器学习问题,即输入一些上下文,例如目标词的前 4 个词然后预测出目标词,学习了提出这些问题是怎样帮助学习词嵌入的。在下节课,你将看到如何用更简单的上下文和更简单的算法来建立从上下文到目标词的映射,这将让你能够更好地学习词嵌入,一起进入下节课学习 Word2Vec 模型。
Word2Vec
在上节课中你已经见到了如何学习一个神经语言模型来得到更好的词嵌入,在本节课中你会见到 Word2Vec 算法,这是一种简单而且计算时更加高效的方式来学习这种类型的嵌入,让我们来看看。
本节课中的大多数的想法来源于 Tomas Mikolov,Kai Chen,Greg Corrado 和 Jeff Dean。
Mikolov T, Chen K, Corrado G, et al. Efficient Estimation of Word Representations in Vector Space[J]. Computer Science, 2013.
假设在训练集中给定了一个这样的句子:"I want a glass of orange juice to go along with my cereal.",在 Skip-Gram 模型中,我们要做的是抽取上下文和目标词配对,来构造一个监督学习问题。上下文不一定总是目标单词之前离得最近的四个单词,或最近的 \(n\) 个单词。我们要的做的是随机选一个词作为上下文词,比如选 orange 这个词,然后我们要做的是随机在一定词距内选另一个词,比如在上下文词前后 5 个词内或者前后 10 个词内,我们就在这个范围内选择目标词。可能你正好选到了 juice 作为目标词,正好是下一个词(表示 orange 的下一个词),也有可能你选到了前面第二个词,所以另一种配对目标词可以是 glass,还可能正好选到了单词 my 作为目标词。
于是我们将构造一个监督学习问题,它给定上下文词,要求你预测在这个词正负 10 个词距或者正负 5 个词距内随机选择的某个目标词。显然,这不是个非常简单的学习问题,因为在单词 orange 的正负 10 个词距之间,可能会有很多不同的单词。但是构造这个监督学习问题的目标并不是想要解决这个监督学习问题本身,而是想要使用这个学习问题来学到一个好的词嵌入模型。
接下来说说模型的细节,我们继续假设使用一个 10,000 词的词汇表,有时训练使用的词汇表会超过一百万词。但我们要解决的基本的监督学习问题是学习一种映射关系,从上下文 c,比如单词 orange,到某个目标词,记为 t,可能是单词 juice 或者单词 glass 或者单词 my。延续上一张幻灯片的例子,在我们的词汇表中,orange 是第 6257 个单词,juice 是 10,000 个单词中的第 4834 个,这就是你想要的映射到输出 \(y\) 的输入 \(x\)。
为了表示输入,比如单词 orange,你可以先从 one-hot 向量开始,我们将其写作 \(O_{c}\),这就是上下文词的 one-hot 向量。然后和你在上节课中看到的类似,你可以拿嵌入矩阵 \(E\) 乘以向量 \(O_{c}\),然后得到了输入的上下文词的嵌入向量,于是这里 \(e_{c}= E \cdot O_{c}\)。在这个神经网络中,我们将把向量 \(e_{c}\) 喂入一个 softmax 单元。我通常把 softmax 单元画成神经网络中的一个节点,这不是字母 O,而是 softmax 单元,softmax 单元要做的就是输出 \(\hat y\)。然后我们再写出模型的细节,这是 softmax 模型,预测不同目标词的概率:
Softmax: \(p\left( t \middle| c \right) = \frac{e^{\theta_{t}^{T}e_{c}}}{\sum\limits_{j = 1}^{10,000}e^{\theta_{j}^{T}e_{c}}}\)
这里 \(\theta_{t}\) 是一个与输出 \(t\) 有关的参数,即某个词 \(t\) 和标签相符的概率是多少。我省略了 softmax 中的偏差项,想要加上的话也可以加上。最终 softmax 的损失函数就会像之前一样,我们用 \(y\) 表示目标词,我们这里用的 \(y\) 和 \(\hat y\) 都是用 one-hot 表示的,于是损失函数就会是:
\(L\left( \hat y,y \right) = - \sum\limits_{i = 1}^{10,000}{y_{i}\log \hat y_{i}}\)
这是常用的 softmax 损失函数,\(y\) 就是只有一个 1 其他都是 0 的 one-hot 向量,如果目标词是 juice,那么第 4834 个元素就是 1,其余是 0。类似的 \(\hat y\) 是一个从 softmax 单元输出的 10,000 维的向量,这个向量是所有可能目标词的概率。
总结一下,这大体上就是一个可以找到词嵌入的简化模型和神经网络,其实就是个 softmax 单元。矩阵 \(E\) 将会有很多参数,所以矩阵 \(E\) 有对应所有嵌入向量 \(e_{c}\) 的参数,softmax 单元也有 \(\theta_{t}\) 的参数。如果优化这个关于所有这些参数的损失函数,你就会得到一个较好的嵌入向量集,这个就叫做 Skip-Gram 模型。它把一个像 orange 这样的词作为输入,并预测这个输入词,从左数或从右数的某个词,预测上下文词的前面一些或者后面一些是什么词。
实际上使用这个算法会遇到一些问题,首要的问题就是计算速度。尤其是在 softmax 模型中,每次你想要计算这个概率,你需要对你词汇表中的所有 10,000 个词做求和计算,可能 10,000 个词的情况还不算太差。如果你用了一个大小为 100,000 或 1,000,000 的词汇表,那么这个分母的求和操作是相当慢的,实际上 10,000 已经是相当慢的了,所以扩大词汇表就更加困难了。
这里有一些解决方案,如分级(hierarchical)的 softmax 分类器和负采样(Negative Sampling)。
在文献中你会看到的方法是使用一个分级(hierarchical)的 softmax 分类器,意思就是说不是一下子就确定到底是属于 10,000 类中的哪一类。想象如果你有一个分类器,它告诉你目标词是在词汇表的前 5000 个中还是在词汇表的后 5000 个词中,假如这个二分类器告诉你这个词在前 5000 个词中,然后第二个分类器会告诉你这个词在词汇表的前 2500 个词中,或者在词汇表的第二组 2500 个词中,诸如此类,直到最终你找到一个词准确所在的分类器,那么就是这棵树的一个叶子节点。像这样有一个树形的分类器,意味着树上内部的每一个节点都可以是一个二分类器,比如逻辑回归分类器,所以你不需要再为单次分类,对词汇表中所有的 10,000 个词求和了。实际上用这样的分类树,计算成本与词汇表大小的对数成正比,而不是词汇表大小的线性函数,这个就叫做分级 softmax 分类器。
我要提一下,在实践中分级 softmax 分类器不会使用一棵完美平衡的分类树或者说一棵左边和右边分支的词数相同的对称树。实际上,分级的 softmax 分类器会被构造成常用词在顶部,然而不常用的词像 durian 会在树的更深处,因为你想更常见的词会更频繁,所以你可能只需要少量检索就可以获得常用单词像 the 和 of。然而你更少见到的词比如 durian 就更合适在树的较深处,因为你一般不需要到那样的深处,所以有不同的经验法则可以帮助构造分类树形成分级 softmax 分类器。所以这是你能在文献中见到的一个加速 softmax 分类的方法,但是我不会再花太多时间在这上面了,你可以从我在第一张幻灯片中提到的 Tomas Mikolov 等人的论文中参阅更多的细节,所以我不会再花更多时间讲这个了。因为在下节课中,我们会讲到另一个方法叫做负采样,我感觉这个会更简单一点,对于加速 softmax 和解决需要在分母中对整个词汇表求和的问题也很有作用,下节课中你会看到更多的细节。
但是在进入下节课前,我想要你理解一个东西,那就是怎么对上下文 c 进行采样,一旦你对上下文 c 进行采样,那么目标词 t 就会在上下文 c 的正负 10 个词距内进行采样。但是你要如何选择上下文 c?一种选择是你可以就对语料库均匀且随机地采样,如果你那么做,你会发现有一些词,像 the、of、a、and、to 诸如此类是出现得相当频繁的,于是你那么做的话,你会发现你的上下文到目标词的映射会相当频繁地得到这些种类的词,但是其他词,像 orange、apple 或 durian 就不会那么频繁地出现了。你可能不会想要你的训练集都是这些出现得很频繁的词,因为这会导致你花大部分的力气来更新这些频繁出现的单词的 \(e_{c}\),但你想要的是花时间来更新像 durian 这些更少出现的词的嵌入,即 \(e_{\text{durian}}\)。实际上词 \(p(c)\) 的分布并不是单纯的在训练集语料库上均匀且随机的采样得到的,而是采用了不同的分级来平衡更常见的词和不那么常见的词。
这就是 Word2Vec 的 Skip-Gram 模型,如果你读过我之前提到的论文原文,你会发现那篇论文实际上有两个不同版本的 Word2Vec 模型,Skip-Gram 只是其中的一个,另一个叫做 CBOW,即连续词袋模型(Continuous Bag-Of-Words Model),它获得中间词两边的的上下文,然后用周围的词去预测中间的词,这个模型也很有效,也有一些优点和缺点。而刚才讲的 Skip-Gram 模型,关键问题在于 softmax 这个步骤的计算成本非常昂贵,因为它需要在分母里对词汇表中所有词求和。通常情况下,Skip-Gram 模型用到更多点。在下节课中,我会展示给你一个算法,它修改了训练目标使其可以运行得更有效,因此它可以让你应用在一个更大的训练集上面,也可以学到更好的词嵌入。
总结下:CBOW 是从原始语句推测目标字词;而 Skip-Gram 正好相反,是从目标字词推测出原始语句。CBOW 对小型数据库比较合适,而 Skip-Gram 在大型语料中表现更好。
负采样(Negative Sampling)
在上节课中,你见到了 Skip-Gram 模型如何帮助你构造一个监督学习任务,把上下文映射到了目标词上,它如何让你学到一个实用的词嵌入。但是它的缺点就在于 softmax 计算起来很慢。在本节课中,你会看到一个改善过的学习问题叫做 负采样,它能做到与你刚才看到的 Skip-Gram 模型相似的事情,但是用了一个更加有效的学习算法,让我们来看看这是怎么做到的。
在本节课中大多数的想法源于 Tomas Mikolov,Ilya Sutskever,Kai Chen,Greg Corrado 和 Jeff Dean。
Mikolov T, Sutskever I, Chen K, et al. Distributed Representations of Words and Phrases and their Compositionality[J]. 2013, 26:3111-3119.
我们在这个算法中要做的是构造一个新的监督学习问题,那么问题就是给定一对单词,比如 orange 和 juice,我们要去预测这是否是一对上下文词-目标词(context-target)。
在这个例子中 orange 和 juice 就是个正样本,那么 orange 和 king 就是个负样本,我们把它标为 0。我们要做的就是采样得到一个上下文词和一个目标词,在这个例子中就是 orange 和 juice,我们用 1 作为标记,我把中间这列叫做词(word)。这样生成一个正样本,正样本跟上节课中生成的方式一模一样,先抽取一个上下文词,在一定词距内比如说正负 10 个词距内选一个目标词,这就是生成这个表的第一行,即 orange– juice–1 的过程。然后为了生成一个负样本,你将用相同的上下文词,再在字典中随机选一个词,在这里我随机选了单词 king,标记为 0。然后我们再拿 orange,再随机从词汇表中选一个词,因为我们设想,如果随机选一个词,它很可能跟 orange 没关联,于是 orange–book–0。我们再选点别的,orange 可能正好选到 the,然后是 0。还是 orange,再可能正好选到 of 这个词,再把这个标记为 0,注意 of 被标记为 0,即使 of 的确出现在 orange 词的前面。
总结一下,生成这些数据的方式是我们选择一个上下文词(orange),再选一个目标词(juice),表的第一行,它给了一个正样本,上下文,目标词,并给定标签为 1。然后我们要做的是给定几次,比如 \(K\) 次,我们将用相同的上下文词,再从字典中选取随机的词,king、book、the、of 等,从词典中任意选取的词,并标记 0,这些就会成为负样本。出现以下情况也没关系,就是如果我们从字典中随机选到的词,正好出现在了词距内,比如说在上下文词 orange 正负 10 个词之内。
接下来我们将构造一个监督学习问题,其中学习算法输入 \(x\),输入这对词(context 和 word),要去预测目标的标签(target),即预测输出 \(y\)。因此问题就是给定一对词,像 orange 和 juice,你觉得它们会一起出现么?你觉得这两个词是通过对靠近的两个词采样获得的吗?或者你觉得我是分别在文本和字典中随机选取得到的?这个算法就是要分辨这两种不同的采样方式,这就是如何生成训练集的方法。
那么如何选取 \(K\)?Mikolov 等人推荐小数据集的话,\(K\) 从 5 到 20 比较好。如果你的数据集很大,\(K\) 就选的小一点。对于更大的数据集 \(K\) 就等于 2 到 5,数据集越小 \(K\) 就越大。那么在这个例子中,我们就用 \(K=4\)。
下面我们讲讲学习从 \(x\) 映射到 \(y\) 的监督学习模型,下图中左侧的 softmax 模型,以及从上张幻灯片中得到的训练集,右侧,\(x\) 将是新的输入,\(y\) 将是你要预测的值。为了定义模型,我们将使用记号 \(c\) 表示上下文词,记号 \(t\) 表示可能的目标词,我再用 \(y\) 表示 0 和 1,表示是否是一对上下文-目标词。我们要做的就是定义一个逻辑回归模型,给定输入的 \(c\),\(t\) 对的条件下,\(y=1\) 的概率,即:
\(P\left( y = 1 \middle| c,t \right) = \sigma(\theta_{t}^{T}e_{c})\)
这个模型基于逻辑回归模型,但不同的是我们将一个 sigmoid 函数作用于 \(\theta_{t}^{T}e_{c}\),参数和之前一样,你对每一个可能的目标词有一个参数向量 \(\theta_{t}\) 和另一个参数向量 \(e_{c}\),即每一个可能上下文词的的嵌入向量,我们将用这个公式估计 \(y=1\) 的概率。如果你有 \(K\) 个样本,你可以把这个看作 \(\frac{1}{K}\) 的正负样本比例,即每一个正样本你都有 \(K\) 个对应的负样本来训练一个类似逻辑回归的模型。
我们把这个画成一个神经网络,如果输入词是 orange,即词 6257,你要做的就是输入 one-hot 向量,再传递给 \(E\),通过两者相乘获得嵌入向量 \(e_{6257}\),你就得到了 10,000 个可能的逻辑回归分类问题,其中一个将会是用来判断目标词是否是 juice 的分类器,还有其他的词,比如说可能下面的某个分类器是用来预测 king 是否是目标词,诸如此类,预测词汇表中这些可能的单词。把这些看作 10,000 个二分类逻辑回归分类器,但并不是每次迭代都训练全部 10,000 个,我们只训练其中的 5 个,我们要训练对应真正目标词那一个分类器,再训练 4 个随机选取的负样本,这就是 \(K=4\) 的情况。所以不使用一个巨大的 10,000 维度的 softmax,因为计算成本很高,而是把它转变为 10,000 个二分类问题,每个都很容易计算,每次迭代我们要做的只是训练它们其中的 5 个,一般而言就是 \(K+1\) 个,其中 \(K\) 个负样本和 1 个正样本。这也是为什么这个算法计算成本更低,因为只需更新 \(K+1\) 个逻辑单元,\(K+1\) 个二分类问题,相对而言每次迭代的成本比更新 10,000 维的 softmax 分类器成本低。
你也会在本周的编程练习中用到这个算法,这个技巧就叫负采样。因为你做的是,你有一个正样本词 orange 和 juice,然后你会特意生成一系列负样本,这些(target 为 0 的)是负样本,所以叫负采样,即用这 4 个负样本训练,4 个额外的二分类器,在每次迭代中你选择 4 个不同的随机的负样本词去训练你的算法。
这个算法有一个重要的细节就是如何选取负样本,即在选取了上下文词 orange 之后,你如何对这些词进行采样生成负样本?一个办法是对中间的这些词进行采样,即候选的目标词,你可以根据其在语料中的经验频率进行采样,就是通过词出现的频率对其进行采样。但问题是这会导致你在 like、the、of、and 诸如此类的词上有很高的频率。另一个极端就是用 1 除以词汇表总词数,即 \(\frac{1}{\left|v\right|}\),均匀且随机地抽取负样本,这对于英文单词的分布是非常没有代表性的。所以论文的作者 Mikolov 等人根据经验,他们发现这个经验值的效果最好,它位于这两个极端的采样方法之间,既不用经验频率,也就是实际观察到的英文文本的分布,也不用均匀分布,他们采用以下方式:
\(P\left( w_{i} \right) = \frac{f\left( w_{i} \right)^{\frac{3}{4}}}{\sum\limits_{j = 1}^{10,000}{f\left( w_{j} \right)^{\frac{3}{4}}}}\)
进行采样,所以如果 \(f(w_{i})\) 是观测到的在语料库中的某个英文词的词频,通过 \(\frac{3}{4}\) 次方的计算,使其处于完全独立的分布和训练集的观测分布两个极端之间。我并不确定这是否有理论证明,但是很多研究者现在使用这个方法,似乎也效果不错。
总结一下,你已经知道了在 softmax 分类器中如何学到词向量,但是计算成本很高。在这节课中,你见到了如何通过将其转化为一系列二分类问题使你可以非常有效的学习词向量。如果你使用这个算法,你将可以学到相当好的词向量。当然和深度学习的其他领域一样,有很多开源的实现,当然也有预训练过的词向量,就是其他人训练过的然后授权许可发布在网上的,所以如果你想要在 NLP 问题上取得进展,去下载其他人的词向量是很好的方法,在此基础上改进。
Skip-Gram 模型就介绍到这里,在下节课中,我会跟你分享另一个版本的词嵌入学习算法 GloVe,而且这可能比你之前看到的都要简单。
GloVe 词向量(GloVe Word Vectors)
你已经了解了几个计算词嵌入的算法,另一个在 NLP 社区有着一定势头的算法是 GloVe 算法,这个算法并不如 Word2Vec 或是 Skip-Gram 模型用的多,但是也有人热衷于它,我认为可能是因为它简便吧,我们来看看这个算法。
Glove算法是由 Jeffrey Pennington,Richard Socher 和 Chris Manning 发明的。
Pennington J, Socher R, Manning C. Glove: Global Vectors for Word Representation[C]// Conference on Empirical Methods in Natural Language Processing. 2014:1532-1543.
GloVe 代表用词表示的全局变量(global vectors for word representation)。在此之前,我们曾通过挑选语料库中位置相近的两个词,列举出词对,即上下文和目标词,GloVe 算法做的就是使其关系开始明确化。假定 \(X_{{ij}}\) 是单词 \(i\) 在单词 \(j\) 上下文中出现的次数,那么这里 \(i\) 和 \(j\) 就和 \(t\) 和 \(c\) 的功能一样,所以你可以认为 \(X_{{ij}}\) 等同于 \(X_{{tc}}\)。你也可以遍历你的训练集,然后数出单词 \(i\) 在不同单词 \(j\) 上下文中出现的个数,单词 \(t\) 在不同单词 \(c\) 的上下文中共出现多少次。根据上下文和目标词的定义,你大概会得出 \(X_{{ij}}\) 等于 \(X_{ji}\) 这个结论。事实上,如果你将上下文和目标词的范围定义为出现于左右各 10 词以内的话,那么就会有一种对称关系。如果你对上下文的选择是,上下文总是目标词前一个单词的话,那么 \(X_{{ij}}\) 和 \(X_{ji}\) 就不会像这样对称了。不过对于 GloVe 算法,我们可以定义上下文和目标词为任意两个位置相近的单词,假设是左右各 10 词的距离,那么 \(X_{{ij}}\) 就是一个能够获取单词 \(i\) 和单词 \(j\) 出现位置相近时或是彼此接近的频率的计数器。
GloVe 模型做的就是进行优化,我们将他们之间的差距进行最小化处理:
\(\mathrm{Minimize}\sum\limits_{i = 1}^{10,000}{\sum\limits_{j = 1}^{10,000}{f\left( X_{{ij}} \right)\left( \theta_{i}^{T}e_{j} + b_{i} + b_{j}^{'} - \mathrm{log} \ X_{{ij}} \right)^{2}}}\)
其中 \(\theta_{i}^{T}e_{j}\),想一下 \(i\) 和 \(j\) 与 \(t\) 和 \(c\) 的功能一样,因此这就和你之前看的有些类似了,即 \(\theta_{t}^{T}e_{c}\)。同时对于公式中的这个 \(\theta_{t}^{T}e_{j}\) 来说,你想要知道的是告诉你这两个单词之间有多少联系,\(t\) 和 \(c\) 之间有多紧密,\(i\) 和 \(j\) 之间联系程度如何,换句话说就是他们同时出现的频率是多少,这是由这个 \(X_{{ij}}\) 影响的。然后,我们要做的是解决参数 \(\theta\) 和 \(e\) 的问题,然后准备用梯度下降来最小化上面的公式,你只想要学习一些向量,这样他们的输出能够对这两个单词同时出现的频率进行良好的预测。
现在一些附加的细节是如果 \(X_{{ij}}\) 是等于 0 的话,那么 \(\mathrm{log} \ 0\) 就是未定义的,是负无穷大的,所以我们想要对 \(X_{{ij}}\) 为 0 时进行求和,因此要做的就是添加一个额外的加权项 \(f\left(X_{{ij}}\right)\)。如果 \(X_{{ij}}\) 等于 0 的话,同时我们会用一个约定,即 \(0 \ \mathrm{log} \ 0 = 0\),这个的意思是如果 \(X_{{ij}} = 0\),先不要进行求和,所以这个 \(\mathrm{log} \ 0\) 项就是不相关项。公式中的求和表明,这个和仅是一个上下文和目标词关系里连续出现至少一次的词对的和。\(f\left(X_{{ij}}\right)\) 的另一个作用是,有些词在英语里出现十分频繁,比如说 this,is,of,a 等等,有些情况,这叫做 停止词,但是在频繁词和不常用词之间也会有一个连续统(continuum)。不过也有一些不常用的词,比如 durion,你还是想将其考虑在内,但又不像那些常用词这样频繁。因此,这个加权因子 \(f\left(X_{{ij}}\right)\) 就可以是一个函数,即使是像 durion 这样不常用的词,它也能给予大量有意义的运算,同时也能够给像 this,is,of,a 这样在英语里出现更频繁的词更大但不至于过分的权重。因此有一些对加权函数 \(f\) 的选择有着启发性的原则,就是既不给这些词 this,is,of,a 过分的权重,也不给这些不常用词 durion 太小的权值。如果你想要知道 \(f\) 是怎么能够启发性地完成这个功能的话,你可以看一下我之前的幻灯片里引用的 GloVe 算法论文。
最后,一件有关这个算法有趣的事是 \(\theta\) 和 \(e\) 现在是完全对称的,所以那里的 \(\theta_{i}\) 和 \(e_{j}\) 就是对称的。如果你只看数学式的话,\(\theta_{i}\) 和 \(e_{j}\) 的功能其实很相近,你可以将它们颠倒或者将它们进行排序,实际上他们都输出了最佳结果。因此一种训练算法的方法是一致地初始化 \(\theta\) 和 \(e\),然后使用梯度下降来最小化输出,当每个词都处理完之后取平均值,所以,给定一个词 \(w\),你就会有 \(e_{w}^{(final)}= \frac{e_{w} +\theta_{w}}{2}\)。因为 \(\theta\) 和 \(e\) 在这个特定的公式里是对称的,而不像之前课程里我们了解的模型,\(\theta\) 和 \(e\) 功能不一样,因此也不能像那样取平均。
这就是 GloVe 算法的内容,我认为这个算法的一个疑惑之处是如果你看着这个等式,它实在是太简单了,对吧?仅仅是最小化,像这样的一个二次代价函数是怎么能够让你学习有意义的词嵌入的呢?但是结果证明它确实有效,发明者们发明这个算法的过程是他们以历史上更为复杂的算法,像是 newer language 模型,以及之后的 Word2Vec、Skip-Gram 模型等等为基础,同时希望能够简化所有之前的算法才发明的。
在我们总结词嵌入学习算法之前,有一件更优先的事,我们会简单讨论一下。就是说,我们以下图中这个特制的表格作为例子来开始学习词向量,我们说,第一行的嵌入向量是来表示 Gender 的,第二行是来表示 Royal 的,然后是是 Age,在之后是 Food 等等。但是当你在使用我们了解过的算法的一种来学习一个词嵌入时,例如我们之前的幻灯片里提到的 GloVe 算法,会发生一件事就是你不能保证嵌入向量的独立组成部分是能够理解的,为什么呢?
假设说有个空间,里面的第一个轴是 Gender,第二个轴是 Royal,你能够保证的是第一个嵌入向量对应的轴 \(e_{w, 1}\) 是和这个轴(Gender 和 Royal)有联系的,它的意思可能是 Gender、Royal、Age 和 Food。具体而言,这个学习算法会选择这个 \(e_{w, 1}\) 作为第一维的轴,所以给定一些上下文词,第一维可能是这个轴 \(e_{w, 1}\),第二维也许是这个(图中与 \(e_{w, 1}\) 正交且无 tag 的),或者它可能不是正交的,即第二维是非正交轴 \(e_{w, 2}\),它可以是你学习到的词嵌入中的第二部分。当我们看到代价函数中的这个 \(\theta_{i}^{T}e_{j}\) 的时候,如果有某个可逆矩阵 \(A\),那么这项 \(\theta_{i}^{T}e_{j}\) 就可以简单地替换成 \(\left(A\theta_{i} \right)^{T}(A^{- T}e_{j})\),因为我们将其展开:
\(\left( A\theta_{i} \right)^{T}\left( A^{- T}e_{j} \right) = \theta_{i}^{T}A^{T}A^{- T}e_{j} = \theta_{i}^{T}e_{j}\)
如果你没有学过线性代数的话,不必担心,和这个算法一样有一个简单证明过程。你不能保证这些用来表示特征的轴能够等同于人类可能简单理解的轴,具体而言,第一个特征可能是个 Gender、Roya、Age、Food Cost 和 Size 的组合,它也许是名词或是一个行为动词和其他所有特征的组合,所以很难看出独立组成部分,即这个嵌入矩阵的单行部分,然后解释出它的意思。尽管有这种类型的线性变换,这个平行四边形映射也说明了我们解决了这个问题,当你在类比其他问题时,这个方法也是行得通的。因此尽管存在特征量潜在的任意线性变换,你最终还是能学习出解决类似问题的平行四边形映射。
这就是词嵌入学习的内容,你现在已经了解了一些学习词嵌入的算法了,你可以在本周的编程练习里更多地运用它们。下节课讲解怎样使用这些算法来解决情感分类问题。
情绪分类(Sentiment Classification)
情感分类任务就是看一段文本,然后分辨这个人是否喜欢他们在讨论的这个东西,这是 NLP 中最重要的模块之一,经常用在许多应用中。情感分类一个最大的挑战就是可能标记的训练集没有那么多,但是有了词嵌入,即使只有中等大小的标记的训练集,你也能构建一个不错的情感分类器,让我们看看是怎么做到的。
下图是一个情感分类问题的一个例子,输入 \(x\) 是一段文本,而输出 \(y\) 是你要预测的相应情感。比如说是一个餐馆评价的星级,
比如有人说,"The dessert is excellent."(甜点很棒),并给出了四星的评价;
"Service was quite slow"(服务太慢),两星评价;
"Good for a quick meal but nothing special"(适合吃快餐但没什么亮点),三星评价;
还有比较***钻的评论,"Completely lacking in good taste, good service and good ambiance."(完全没有好的味道,好的服务,好的氛围),给出一星评价。
如果你能训练一个从 \(x\) 到 \(y\) 的映射,基于这样的标记的数据集,那么你就可以用来搜集大家对你运营的餐馆的评价。一些人可能会把你的餐馆信息放到一些社交媒体上,Twitter、Facebook、Instagram 或者其他的社交媒体,如果你有一个情感分类器,那么它就可以看一段文本然后分析出这个人对你的餐馆的评论的情感是正面的还是负面的,这样你就可以一直记录是否存在一些什么问题,或者你的餐馆是在蒸蒸日上还是每况愈下。
情感分类一个最大的挑战就是可能标记的训练集没有那么多。对于情感分类任务来说,训练集大小从 10,000 到 100,000 个单词都很常见,甚至有时会小于 10,000 个单词,采用了词嵌入能够带来更好的效果,尤其是只有很小的训练集时。
接下来你可以这样做,这节我们会讲几个不同的算法。这是一个简单的情感分类的模型,假设有一个句子 "The dessert is excellent",然后在词典里找这些词,我们通常用 10,000 个词的词汇表。我们要构建一个分类器能够把它映射成输出四个星,给定这四个词 "The dessert is excellent",我们取这些词,找到相应的 one-hot 向量,比如这里的 \(o_{8928}\),乘以嵌入矩阵 \(E\),\(E\) 可以从一个很大的文本集里学习到,比如它可以从一亿个词或者一百亿个词里学习嵌入,然后用来提取单词 the 的嵌入向量 \(e_{8928}\),对 dessert、is、excellent 做同样的步骤。
如果在很大的训练集上训练 \(E\),比如一百亿的单词,这样你就会获得很多知识,甚至从有些不常用的词中获取,然后应用到你的问题上,即使你的标记数据集里没有这些词。我们可以这样构建一个分类器,取这些向量,比如是 300-dimensional 的向量。然后把它们求和或者求平均,这里我画一个大点的平均值计算单元,你也可以用求和或者平均。这个单元会得到一个 300-dimensional 的特征向量,把这个特征向量送进 softmax 分类器,然后输出 \(\hat y\)。这个 softmax 能够输出 5 个可能结果的概率值,从一星到五星,这个就是 5 个可能输出的 softmax 结果用来预测 \(y\) 的值。
这里用的平均值运算单元,这个算法适用于任何长短的评论,因为即使你的评论是 100 个词长,你也可以对这一百个词的特征向量求和或者平均它们,然后得到一个表示一个 300-dimensional 的特征向量表示,然后把它送进你的 softmax 分类器,所以这个平均值运算效果不错。它实际上会把所有单词的意思给平均起来,或者把你的例子中所有单词的意思加起来就可以用了。
这个算法有一个问题就是没考虑词序,尤其是这样一个负面的评价,"Completely lacking in good taste, good service, and good ambiance.",但是 good 这个词出现了很多次,有 3 个 good,如果你用的算法跟这个一样,忽略词序,仅仅把所有单词的词嵌入加起来或者平均下来,你最后的特征向量会有很多 good 的表示,你的分类器很可能认为这是一个好的评论,尽管事实上这是一个差评,只有一星的评价。
我们有一个更加复杂的模型,不用简单的把所有的词嵌入都加起来,我们用一个 RNN 来做情感分类。我们这样做,首先取这条评论,"Completely lacking in good taste, good service, and good ambiance.",找出每一个 one-hot 向量,这里我跳过去每一个 one-hot 向量的表示。用每一个 one-hot 向量乘以词嵌入矩阵 \(E\),得到词嵌入表达 \(e\),然后把它们送进 RNN 里。RNN 的工作就是在最后一步计算一个特征表示(\(a^{<10>}\)),用来预测 \(\hat y\),这是一个多对一的网络结构的例子,我们之前已经见过了。有了这样的算法,考虑词的顺序效果就更好了,它就能意识到 "things are lacking in good taste",这是个负面的评价,"not good" 也是一个负面的评价。而不像原来的算法一样,只是把所有的加在一起得到一个大的向量,根本意识不到 "not good" 和 "good" 不是一个意思,"lacking in good taste" 也是如此,等等。
如果你训练一个这样的算法,最后会得到一个很合适的情感分类的算法。由于你的词嵌入是在一个更大的数据集里训练的,这样效果会更好,更好的泛化一些没有见过的新的单词。比如其他人可能会说,"Completely absent of good taste, good service, and good ambiance.",即使 absent 这个词不在标记的训练集里,如果是在一亿或者一百亿单词集里训练词嵌入,它仍然可以正确判断,并且泛化的很好,甚至这些词是在训练集中用于训练词嵌入的,但是可以不在专门用来做情感分类问题的标记的训练集中。
以上就是情感分类的问题,我希望你能大体了解。一旦你学习到或者从网上下载词嵌入,你就可以很快构建一个很有效的 NLP 系统。
词嵌入除偏(Debiasing Word Embeddings)
现在机器学习和人工智能算法正渐渐地被信任用以辅助或是制定极其重要的决策,因此我们想尽可能地确保它们不受非预期形式偏见影响,比如说性别歧视、种族歧视等等。本节课中我会向你展示词嵌入中一些有关减少或是消除这些形式的偏见的办法。
本节课中当我使用术语 bias 时,我不是指 bias 本身这个词,或是偏见这种感觉,而是指性别、种族、性取向方面的偏见,那是不同的偏见,同时这也通常用于机器学习的学术讨论中。不过我们讨论的大部分内容是词嵌入是怎样学习类比像 Man:Woman,就像 King:Queen,不过如果你这样问,如果 Man 对应 Computer Programmer,那么 Woman 会对应什么呢?所以这篇论文 Bolukbasi T, Chang K W, Zou J, et al. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings[J]. 2016. 的作者 Tolga Bolukbasi、Kai-Wei Chang、James Zou、Venkatesh Saligrama 和 Adam Kalai 发现了一个十分可怕的结果,就是说一个已经完成学习的词嵌入可能会输出 Man:Computer Programmer,同时输出 Woman:Homemaker,那个结果看起来是错的,并且它执行了一个十分不良的性别歧视。如果算法输出的是 Man:Computer Programmer,同时 Woman:Computer Programmer 这样子会更合理。同时他们也发现如果 Father:Doctor,那么 Mother 应该对应什么呢?一个十分不幸的结果是,有些完成学习的词嵌入会输出 Mother:Nurse。
因此根据训练模型所使用的文本,词嵌入能够反映出性别、种族、年龄、性取向等其他方面的偏见,一件我尤其热衷的事是,这些偏见都和社会经济状态相关,我认为每个人不论你出身富裕还是贫穷,亦或是二者之间,我认为每个人都应当拥有好的机会,同时因为机器学习算法正用来制定十分重要的决策,它也影响着世间万物,从大学录取到人们找工作的途径,到贷款申请,不论你的的贷款申请是否会被批准,再到刑事司法系统,甚至是判决标准,学习算法都在作出非常重要的决策,所以我认为我们尽量修改学习算法来尽可能减少或是理想化消除这些非预期类型的偏见是十分重要的。
至于词嵌入,它们能够轻易学会用来训练模型的文本中的偏见内容,所以算法获取到的偏见内容就可以反映出人们写作中的偏见。在漫长的世纪里,我认为人类已经在减少这些类型的偏见上取得了进展,幸运的是对于人工智能来说,实际上我认为有更好的办法来实现更快地减少 AI 领域中相比与人类社会中的偏见。虽然我认为我们仍未实现人工智能,仍然有许多研究许多难题需要完成来减少学习算法中这些类型的偏见。
本节课里我想要做的是与你们分享一个例子,它是一篇论文的一套办法,就是下面引用的这篇由 Bolukbasi 和其他人共同撰写的论文,它是研究减少词嵌入中偏见问题的。就是这些,假设说我们已经完成一个词嵌入的学习,那么 babysitter 就是在这里,doctor 在这里,grandmother 在这里,grandfather 在这里,也许 girl 嵌入在这里,boy 嵌入在这里,也许 she 嵌在这里,he 在这里,所以首先我们要做的事就是辨别出我们想要减少或想要消除的特定偏见的趋势。
为了便于说明,我会集中讨论性别歧视,不过这些想法对于所有我在上个幻灯片里提及的其他类型的偏见都是通用的。这个例子中,你会怎样辨别出与这个偏见相似的趋势呢?主要有以下三个步骤:
一、对于性别歧视这种情况来说,我们能做的是 \(e_{\text{he}}-e_{\text{she}}\),因为它们的性别不同,然后将 \(e_{\text{male}}-e_{\text{female}}\),再将这些值取平均,将这些差简单地求平均。这个趋势(X 轴方向)看起来就是性别趋势或说是偏见趋势,然后这个趋势(y 轴方向)与我们想要尝试处理的特定偏见并不相关,因此这就是个无偏见趋势。在这种情况下,偏见趋势可以将它看做 1D 子空间,所以这个无偏见趋势就会是 299D 的子空间。我已经略微简化了,原文章中的描述这个偏见趋势可以比 1 维更高,同时相比于取平均值,如同我在这里描述的这样,实际上它会用一个更加复杂的算法叫做 SVU,也就是奇异值分解,如果你对主成分分析(Principle Component Analysis)很熟悉的话,奇异值分解这个算法的一些方法和主成分分析 (PCA) 其实很类似。
二、中和步骤,所以对于那些定义不确切的词可以将其处理一下,避免偏见。有些词本质上就和性别有关,像 grandmother、grandfather、girl、boy、she、he,他们的定义中本就含有性别的内容,不过也有一些词像 doctor 和 babysitter 我们想使之在性别方面是中立的。同时在更通常的情况下,你可能会希望像 doctor 或 babysitter 这些词成为种族中立的,或是性取向中立的等等,不过这里我们仍然只用性别来举例说明。对于那些定义不明确的词,它的基本意思是不像 grandmother 和 grandfather 这种定义里有着十分合理的性别含义的,因为从定义上来说 grandmothers 是女性,grandfather 是男性。所以对于像 doctor 和 babysitter 这种单词我们就可以将它们在这个轴(y 轴方向)上进行处理,来减少或是消除他们的性别歧视趋势的成分,也就是说减少他们在这个水平方向上的距离(图中 doctor 和 babysitter 在 y 轴上投影),所以这就是第二个中和步。
三、均衡步,意思是说你可能会有这样的词对,grandmother 和 grandfather,或者是 girl 和 boy,对于这些词嵌入,你只希望性别是其区别。那为什么要那样呢?在这个例子中,babysitter 和 grandmother 之间的距离或者说是相似度实际上是小于 babysitter 和 grandfather 之间的距离的(从 y 轴上 babysitter 出发的两个紫色方向线段),因此这可能会加重不良状态,或者可能是非预期的偏见,也就是说 grandmothers 相比于 grandfathers 最终更有可能输出 babysitting。所以在最后的均衡步中,我们想要确保的是像 grandmother 和 grandfather 这样的词都能够有一致的相似度,或者说是相等的距离,和 babysitter 或是 doctor 这样性别中立的词一样。这其中会有一些线性代数的步骤,但它主要做的就是将 grandmother 和 grandfather 移至与中间轴线等距的一对点上(从 y 轴上 babysitter 出发的两个绿色方向线段箭头所在处),现在性别歧视的影响也就是这两个词与 babysitter 的距离就完全相同了(从 y 轴上 babysitter 出发的两个绿色方向线段)。所以总体来说,会有许多对像 grandmother-grandfather,boy-girl,sorority-fraternity,girlhood-boyhood,sister-brother,niece-nephew,daughter-son 这样的词对,你可能想要通过均衡步来解决他们。
最后一个细节是你怎样才能够决定哪个词是中立的呢?对于这个例子来说 doctor 看起来像是一个应该对其中立的单词来使之性别不确定或是种族不确定。相反地,grandmother 和 grandfather 就不应是性别不确定的词。也会有一些像是 beard 词,一个统计学上的事实是男性相比于比女性更有可能拥有胡子,因此也许 beard 应该比 female 更靠近 male 一些。
因此论文作者做的就是训练一个分类器来尝试解决哪些词是有明确定义的,哪些词是性别确定的,哪些词不是。结果表明英语里大部分词在性别方面上是没有明确定义的,意思就是说性别并是其定义的一部分,只有一小部分词像是 grandmother-grandfather,girl-boy,sorority-fraternity 等等,不是性别中立的。因此一个线性分类器能够告诉你哪些词能够通过中和步来预测这个偏见趋势,或将其与这个本质是 299D 的子空间进行处理。
最后,你需要平衡的词对的数实际上是很小的,至少对于性别歧视这个例子来说,用手都能够数出来你需要平衡的大部分词对。完整的算法会比我在这里展示的更复杂一些,你可以去看一下这篇论文了解详细内容,你也可以通过编程作业来练习一下这些想法。
总结一下,减少或者是消除学习算法中的偏见问题是个十分重要的问题,因为这些算法会用来辅助制定越来越多的社会中的重要决策,在本节课中分享了一套如何尝试处理偏见问题的办法,不过这仍是一个许多学者正在进行主要研究的领域。
参考文献:
- The debiasing algorithm is from Bolukbasi et al., 2016, Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings
- The GloVe word embeddings were due to Jeffrey Pennington, Richard Socher, and Christopher D. Manning.
参考资料:针对性别特定词汇的均衡算法
如何对两个单词除偏,比如:"actress"(女演员)和 "actor"(男演员)。 均衡算法适用于您可能希望仅通过性别属性不同的单词对。 举一个具体的例子,假设 "actress"(女演员)比 "actor"(男演员)更接近 "保姆"。 通过将中和应用于 "babysit"(保姆),我们可以减少与保姆相关的性别刻板印象。 但是这仍然不能保证 "actress"(女演员)和 "actor"(男演员)与 "babysit"(保姆)等距。 均衡算法可以解决这个问题。
均衡背后的关键思想是确保一对特定的单词与 49 维 \(g_\perp\) 距离相等 。均衡步骤还可以确保两个均衡步骤现在与 \(e_{receptionist}^{debiased}\) 距离相同,或者用其他方法进行均衡。下图演示了均衡算法的工作原理:
公式的推导有点复杂(参考论文:Bolukbasi T, Chang K W, Zou J, et al. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings[J]. 2016.)
主要步骤如下:
\(\mu = \frac{e_{w1} + e_{w2}}{2}\)
\(\mu_{B} = \frac {\mu * \text{bias_axis}}{||\text{bias_axis}||_2} + ||\text{bias_axis}||_2 *\text{bias_axis}\)
\(\mu_{\perp} = \mu - \mu_{B}\)
\(e_{w1B} = \sqrt{ |{1 - ||\mu_{\perp} ||^2_2} |} * \frac{(e_{{w1}} - \mu_{\perp}) - \mu_B} {|(e_{w1} - \mu_{\perp}) - \mu_B)|}\)
\(e_{w2B} = \sqrt{ |{1 - ||\mu_{\perp} ||^2_2} |} * \frac{(e_{\text{w2}} - \mu_{\perp}) - \mu_B} {|(e_{w2} - \mu_{\perp}) - \mu_B)|}\)
\(e_1 = e_{w1B} + \mu_{\perp}\)
\(e_2 = e_{w2B} + \mu_{\perp}\)