行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 数据挖掘 正文

机器学习:单词拼写纠正器python实现

01、朴素贝叶斯分类实战

下面,借助朴素贝叶斯分类器的基本思想,编写一个单词拼写纠正器,它大致实现的功能如下:

如果用户输入的单词存在,则直接提示在字典中发现,并返回

如果单词不在词典中,纠正器会猜测用户的可能输入,然后做出最多两步的距离调整,并返回纠正后,用户最可能想输入的前三个单词

如果经过最多的两步调整后,还是未找到,则提示想输入的单词在字典中不存在。

02、纠正器实现原理

1 如用户输入了 hella,纠正后发现的3个最有可能的输入如下:

'want to input: hello', 'hell', 'fella'

2 如用户输入了appropreate,纠正器纠正后:

'want to input: appropriate'

3 如用户输入了owesomes,纠正器纠正后:

'want to input: awesome'

4 如用户输入了grduallyare,纠正器纠正后:

grduallyare not found in dictionary!

以上是纠正器能实现的纠正实例,那么该如何实现这么一个单词拼写错误检查和纠正的工具呢。

如果用户实际输入的单词为 w(word的简写), 然后拼写纠正器猜测用户实际想输入的单词为 c1, c2 , c3 , ....... 因此,我们可以猜测用户输入了 P(c1 | w) ,P(c2 | w),P(c3 | w)等等这些多种猜测。如果发现P(c1 | w) 的概率最大,那么用户很有可能想输入的那个单词为 c1 。这个概率可以统一表示为:

P(c | w)

如何求解这个概率的最大值?

将以上概率做如下转化来求解:用户想输入的很可能在语料库的这个 c 时,有可能被错误的输入为了 w1,w2,w3 ,...... 则这个概率可以统一表示为:

P(w | c)

用户错误地输入成 w1,w2,w3,......,它们之间是相互独立的,因此可以根据朴素贝叶斯分类器的理论,进一步将后验概率 P(c | w) 的求解转化为求解如下的目标函数:

max ( P(c) * P(w | c) / P(w) )

上式中 P(c)为先验概率,下载一个比较丰富的单词拼写都正确的英文单词库后,统计下每个单词出现的频次,就是单词 c 的出现的概率;

P(w) 是与问题分类无关的量,因为用户有可能输入任意一个单词;

P(w | c) 是一个类条件概率:用户想输入c(c在语料库中是有对应的,在此处需要注意:我们取的语料库不能100%保证一定存在任意一个正确的单词,所以在统计的过程中,假定单词至少出现1次),但是被错误地输入为了 wi 的概率。

P(w | c) 的求解方法通常会有很多种,比如用户想输入hello,但是实际输入了 hella,它们之间的区别仅仅是最后一个字符输入错误,这个出现的概率还是挺大的吧;但是,再看看下面这个例子。

如果用户想输入awesome, 但是实际输入成了owesomes,输错了1个字符,多添加了 1个字符,这种情况发生的概率就比上面那种小一些吧。

因此,在本文中设计的纠正器没有直接去量化 P(w | c) 这个概率,而是采取了从定性上进行分析,通常经过一步调整出现的概率大于经过两步调整出现的概率。所以,当纠正器遇到一个待纠正的词语时,它会纠正一步,如果发现了,就直接返回了;否则才会进行两步调整,这种调整的优先级的原理是根据 P(w | c) 。

这样先验概率 P(c) 和类条件概率 P(w | c) 的求解方法就弄明白了,当一步纠正就能在语料库找到对应后,就不会进行两步纠正,但是一步纠正会返回多个,此时再根据P(c)找出这些中的出现频次最多的,这样最终的结果便是猜测到的用户最有可能想输入的单词。

03、纠正器Python代码

构建先验概率P(c),语料库下载了老友记的1-10部+呼啸山庄全部组成的单词库。

import re, collections
def tolower(text):
return re.findall('[a-z]+',text.lower())

def prior(cwords):
model = collections.defaultdict(lambda:1)
for f in cwords:
model[f]+=1
return model

ipath = './bigword.txt'
uipath = ipath.encode("utf8")
htxt = open(uipath,'r',errors ='ignore')
cwords = tolower(htxt.read())
#get P(c)
nwords = train(cwords)
nwords

类条件概率

alpha = 'abcdefghijklmnopqrstuvwxyz'
#一步调整
def version1(word):
n = len(word)
add_a_char = [word[0:i] + c + word[i:] for i in range(n+1) for c in alpha]
delete_a_char = [word[0:i] + word[i+1:] for i in range(n)]
revise_a_char = [word[0:i] + c + word[i+1:] for i in range(n) for c in alpha]
swap_adjacent_two_chars = [word[0:i] + word[i+1]+ word[i]+ word[i+2:] for i in range(n-1)]
return set( add_a_char + delete_a_char +
revise_a_char + swap_adjacent_two_chars)
#两步调整
def version2(word):
return set(e2 for e1 in edits1(word) for e2 in edits1(e1))

朴素贝叶斯分类器

def identify(words):
return set(w for w in words if w in nwords)

def getMax(wanteds):
threewanteds=[]
maxword = max(wanteds,key=lambda w : nwords[w])
threewanteds.append('want to input: '+ maxword)
wanteds.remove(maxword)
if len(wanteds)>0:
maxword = max(wanteds,key=lambda w : nwords[w])
threewanteds.append(maxword)
wanteds.remove(maxword)
if len(wanteds)>0:
maxword = max(wanteds,key=lambda w : nwords[w])
threewanteds.append(maxword)
return threewanteds

def bayesClassifier(word):
#如果字典中有输入的单词,直接返回
if identify([word]):
return 'found: '+ word
#一步调整
wanteds = identify(version1(word))
if len(wanteds)>0:
return getMax(wanteds)
#两步调整
wanteds = identify(version2(word))
if len(wanteds)>0:
return getMax(wanteds)
#不再修正,直接提示这个单词不在当前的词典中
else:
return [word + ' not found in dictionary!' ]

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
最新文章
SEM推广服务
热门文章
热点图文

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部