龙空技术网

n元语法-NLP中重要的统计语言模型

海同职坐标 57

前言:

如今咱们对“关于katz平滑的实现算法”大概比较关注,同学们都需要了解一些“关于katz平滑的实现算法”的相关知识。那么小编同时在网络上搜集了一些关于“关于katz平滑的实现算法””的相关内容,希望我们能喜欢,同学们快快来学习一下吧!

语言模型

在统计自然语言处理中语言模型是很重要的一块,常用的语言模型是n元语法模型,当然现在比较流行的还有神经网络语言模型。n元语法模型需要额外的平滑处理,而神经网络语言模型则不必,它自带平滑效果。

n元语法

n元语法(n-gram)是NLP中很重要的统计语言模型,简单来说就是计算某个句子出现的概率,比如“我今天上班迟到了”这句话在整个语言下的概率,一般我们会通过一个大的语料库来进行统计。

用数学语言来描述,假设我们的句子为s=w1,w2,...,wt,则该句子的概率为

P(s)=P(w1,w2,...,wt)=P(w1)P(w2|w1)P(w3|w1,w2)...P(wt|w1,w2,...,wt−1)

其中P(w1)表示第一个词w1出现的概率;P(w2|w1)是第一个词出现的前提下第二个词出现的概率;以此类推。比如s=“我今天上班迟到了”,那么P(s)=P(我)P(今天|我)P(上班|我,今天)P(迟到了|我,今天,上班)。

如果严格按照上述公式计算概率,假设总词汇大小为 N,那么第 t 个词的概率 要考虑 Nt−1种情况,当 N 较大时,句子长度也较长时,将产生一个天文数字的自有参数,无法计算。

上述的语言模型的参数空间太大而且数据稀疏,导致在实际中基本无法使用。所以我们需要一个假设,某个词出现的概率只与它前面的一个或几个词有关,这个假设就是马尔科夫假设。

当 n=1 时,称为一元语法,被记为unigram,此时第 i 个词出现的概率完全独立与之前的情况。

当 n=2 时,称为二元语法,被称为一阶马尔科夫链,记为bigram,此时第 i 个词出现的概率与它的前一个词有关。

当 n=3 时,称为三元语法,被称为二阶马尔科夫链,记作trigram,此时第 i 个词出现的概率与它的前两个词有关。

有了上面的假设,问题就变简单了,对于二元语法,某个句子出现的概率就可以用下面表示

P(s)=P(w1,w2,...,wt)≈P(w1)P(w2|w1)P(w3|w2)...P(wt|wt−1)

实际应用中 n 取3比较多,取太大仍然存在自由参数太多问题。另外为了使当 t=1 时上述公式仍然有意义,可以在句子面前加上一个句子起始标记,而结尾也可以添加句子结束标记。

计算条件概率

可以看到 n 元语法涉及到条件概率的计算,P(wt|wt−1),可直接计算wt−1,wt在语料出现的频率并归一化。

p(wt|wt−1)=count(wt−1wt)∑wtcount(wt−1wt)

举个例子,语料库的3个句子为“i am chinese”、“you are chinese”、“i am handsome”,那么

p(am|i)=count(i,am)∑wcount(i,w)=23

p(are|you)=count(you,are)∑wcount(you,w)=11

p(chinese|am)=count(am,chinese)∑wcount(am,w)=12

p(chinese|are)=count(are,chinese)∑wcount(are,w)=11

p(you|<BOS>)=count(<BOS>,you)∑wcount(<BOS>,w)=13

p(you,are,chinese)=p(you|<BOS>)p(are|you)p(chinese|are)=131111

平滑处理

为什么需要平滑处理?假如有些句子中存在一些训练语料未包含的词,或者连着的词在训练语料中未出现过。这时候就会让概率变为0,比如,计算

p(do|i)=count(i,do)∑wcount(i,w)=03=0

但实际上它的概率不能说是为0,所以此时就需要平滑处理。最简单的平滑处理就是加1法,假设出现的次数比实际多一次,这样就不会存在为0的情况了。

p(wt|wt−1)=1+count(wt−1wt)T+∑wtcount(wt−1wt)

其中T为总词汇数量。

加1法有时效果不好,可以用其他方法处理,包括

* Good-Turing估计法

* Katz平滑法

* Jelinek-Mercer平滑法

* Kneser-Ney平滑法

* 贝叶斯平滑法

* 等等

缺点

n-gram这种处理序列信息的方式依然存在局限性,比如当n大于3时基本就无法处理了,参数空间太大。另外它不能表示词与词之间的关联性。

出处:

标签: #关于katz平滑的实现算法 #n元模型 #n元模型核心思想