作者:Amit Chaudhary
编译:ronghuaiyang
首发:AI公园公众号
导读
非常清楚的解释了FastText的来龙去脉。
单词嵌入是自然语言处理领域中最有趣的方面之一。当我第一次接触到它们时,对一堆文本进行无监督训练的简单方法产生了显示出语法和语义理解迹象的表示,这很有趣。
在这篇文章中,我们将探索由Bojanowski等人介绍的名为“FastText”的单词嵌入算法,并了解它是如何对2013年的Word2Vec算法进行增强的。
词表示的直觉
假设我们有下面的单词,我们想把它们表示成向量,这样它们就可以用于机器学习模型。
Ronaldo, Messi, Dicaprio
一个简单的想法是对单词进行独热编码,其中每个单词都有一个唯一的位置。
我们可以看到,这种稀疏表示没有捕捉到单词之间的任何关系,而且每个单词都是相互独立的。
也许我们可以做得更好。我们知道Ronaldo和Messi是足球运动员,而Dicaprio是演员。让我们使用我们的世界知识并创建手动特征来更好地表示这些单词。
这比之前的独热编码更好,因为相关的项在空间上更接近。
Related words closer in space
我们可以继续添加更多的方面作为维度来获得更细微的表示。
但是为每个可能的单词手动这样做是不可扩展的。如果我们根据我们对单词之间关系的认知来设计特征,我们能在神经网络中复制同样的特征吗?
我们能让神经网络在大量的文本语料库中进行梳理并自动生成单词表示吗?
这就是研究词嵌入算法的目的。
Word2Vec回顾
2013年,Mikolov等提出了一种从大量非结构化文本数据中学习单词向量表示的有效方法。这篇论文从语义分布的角度实现了这个想法。
你可以通过这个单词和哪些单词在一起出现来了解这个单词 — J.R. Firth 1957
由于相似的单词出现在相似的上下文中,Mikolov等人利用这一观点制定了表征学习的两个任务。
第一种方法叫做“连续词包(Continuous Bag of Words)”,它预测相邻词的中心词。
第二项任务叫做“Skip-gram”,在这个任务中,我们给定中心词,预测上下文词。
Interactive example of skipgram method
学习到的表征具有有趣的特征,比如这个流行的例子,在这个例子中,对单词向量的算术运算似乎保留了意义。
Example of word analogy in word2vec
Word2Vec的局限性
虽然Word2Vec改变了NLP的游戏规则,我们将看到如何仍有一些改进的空间:
- Out of Vocabulary(OOV)单词:
在Word2Vec中,需要为每个单词创建嵌入。因此,它不能处理任何在训练中没有遇到过的单词。例如,单词“tensor”和“flow”出现在Word2Vec的词汇表中。但是如果你试图嵌入复合单词“tensorflow”,你将会得到一个词汇表错误。
Example of out of vocab words
- 形态学:对于词根相同的单词,如“eat”和“eaten”,Word2Vec没有任何的参数共享。每个单词都是根据上下文来学习的。因此,可以利用单词的内部结构来提高这个过程的效率。
Words that have shared radicals
FastText
为了解决上述挑战,Bojanowski等提出了一种新的嵌入方法FastText。他们的关键见解是利用单词的内部结构来改进从skip-gram法获得的向量表示。
对skip-gram法进行如下修正:
1. Sub-word生成
对于一个单词,我们生成长度为3到6的n-grams表示。
- 我们取一个单词并添加尖括号来表示单词的开始和结束
Adding angular bracket to a word
- 然后生成长度n的n-grams。例如,对于单词“eating”,从尖括号开始到尖括号结束滑动3个字符的窗口,可以生成长度为3个字符的n-grams。在这里,我们每次将窗口移动一步。
Interactive example of generating 3-grams
- 这样,我们就得到了一个单词的n-grams的列表。
3-character n-grams of a word eating
不同长度的字符n-grams的例子如下:
- 由于存在大量的唯一的n-grams,我们应用哈希来限制内存需求。我们不是学习每个唯一的n-grams的嵌入,而是学习一个总的B嵌入,其中B表示存储桶的大小。文章中用的桶的大小为200万。
Hash dictionary to store n-grams
每个字符n-gram被散列到1到b之间的整数,尽管这可能会导致冲突,但它有助于控制词汇表的大小。本文使用Fowler-Noll-Vo散列函数的FNV-1a变体将字符序列散列为整数值。
Hashing function for a n-gram
2. 使用负采样的Skip-gram
为了理解预训练,让我们以一个简单的玩具为例。我们有一个中心词是“eating”的句子,需要预测上下文中的词“am”和“food”。
Skip-gram with window size of 1
1、首先,中心词的嵌入是通过取字符n-grams的向量和整个词本身来计算的。
Summing n-grams with word vector
2、对于实际的上下文单词,我们直接从嵌入表示中获取它们的单词向量,不需要加上n-grams。
Example of context words
3、现在,我们随机采集负样本,使用与unigram频率的平方根成正比的概率。对于一个实际的上下文词,将抽样5个随机的负样本单词。
Example of negative context words
4、我们在中心词和实际上下文词之间取点积,并应用sigmoid函数来得到0到1之间的匹配分数。
5、基于这种损失,我们使用SGD优化器更新嵌入向量,使实际上下文词更接近中心词,同时增加了与负样本的距离。
Goal of negative sampling in skip-gram
论文中的直觉
- 对于形态丰富的语言(如捷克语和德语),FastText显著提高了句法词类比任务的性能。
- 与Word2Vec相比,FastText降低了语义类比任务的性能。
- FastText比常规的skipgram慢1.5倍,因为增加了n-grams的开销。
- 在单词相似度任务中,使用带有字符ngrams的sub-word信息比CBOW和skip-gram基线具有更好的性能。用子词求和的方法表示词外词比用空向量表示具有更好的性能。
实现
要训练自己的嵌入,可以使用官方CLI工具或使用fasttext实现。
157种语言在Common Crawl和Wikipedia的预训练词向量:https://fasttext.cc/docs/en/c...,各种英语的词向量:https://fasttext.cc/docs/en/e...。
—END—
英文原文:https://amitness.com/2020/06/...
推荐阅读
关注图像处理,自然语言处理,机器学习等人工智能领域,请点击关注AI公园专栏。
欢迎关注微信公众号