朴素贝叶斯(NB classification)实现文档分类

编程环境:

anaconda + python3.7+Spyder+python3.6
Win10
完整代码及数据已经更新至GitHub,欢迎fork~GitHub链接


声明:创作不易,未经授权不得复制转载
statement:No reprinting without authorization


内容概述:

实现朴素贝叶斯分类器,测试其在20 Newsgroups数据集上的效果。

一、机器学习数据挖掘算法之朴素贝叶斯分类器原理介绍:

1.核心公式:

image.png

2.选取朴素贝叶斯的模型:

       一般有三种模型可供选取:伯努利模型、多项式模型、混合模型,伯努利将重复词只视为出现一次,会丢失词频信息,多项式统计和判断时都关注重复次数,混合模型结合前两种在测试时不考虑词频,但在统计时考虑重复次数;
结合效果发现多项式会有更好表现,于是选择了多项式模型

bayes_model

3.平滑技术的选择:

由于使用了多项式的模型,于是选择了更精确的平滑技术,计算的公式如下eg:

image.png

对应到本实验中即为:
P(“term”|class1)=class1中“term”出现的总次数 + 1)/class1中总词数+词表的总词数
利用朴素贝叶斯的条件独立性假设:
image.png

得到如下公式推导:


image.png

由于本实验所选样本和测试数据集分布都比较均匀,P(Vi)可以近似相等,所以P(Vi)可以约掉不用计算。

4.Tricks的应用:

       使用取对数来代替很多个概率相乘,原本相乘的这些概率P(term1|ci)P(term2|ci)P(term3|ci),他们的值大多都非常小,所以程序会下溢出或者结果被四舍五入后得到0,得到错误结果,使用对数可以完美解决。
       而且取对数后因为P(term|ci)的值都在0-1之间,而在这区间内对数函数变化很快,能够突出反映不同单词的概率对总体判断的影响,抵消部分当大量词在统计样本类别中未出现的情况,经过实验发现可以相当程度上增加准确率,如下图:
(1)对对数进行加1,使每个P(term|ci)都大于1,处于对数比较平缓的一段:


image.png

image.png

(2)对对数进行不加1,使每个P(term|ci)都在0-1之间,处于对数变化较快的一段:


image.png
image.png

       对比(1)和(2)可以发现处于对数变化较快时的准确率有较大提升(其中对于comp.os.ms-windows.misc类的数据发现无论怎么调整参数都无法提高准确率,怀疑该类数据的文档间没什么关联性)。

二、数据集介绍与划分:

       数据集为新闻文档数据集,有若干个类别,每个类别有数百个文档,数据集链接:#20news-18828.tar.gz:http://qwone.com/~jason/20Newsgroups/20news-18828.tar.gz 20 Newsgroups; duplicates removed, only "From" and "Subject" headers (18828 documents)
       按2:1进行划分,用来统计(训练)的样本占三分之二,测试样本三分之一,由于全部数据集太多,个人电脑跑起来比较费时,于是选取5到6类来进行实验,如下所示:
类别名:(测试文档数/训练文档数)
alt.atheism:(260 / 539)
comp.graphics:(321 / 652)
......

image.png

image.png

文本示例:
image.png

五、具体python代码实现细节:

       使用doc_filenames={}来分别存储在统计时记录某一个类别的所有文档的读取路径,使用postings[term]=number_of_term来记录建立每个类别的词典,并记录对应单词在该类别中的出现次数,使用num_cx来记录每个类别的总次数;total_aRate表示总的在测试集上的准确率。

1、对于每一类统计用数据集遍历每个文档得到其postings[]:
for id in doc1_filenames:
        f = open(doc1_filenames[id],'r',encoding='utf-8',errors='ignore')
        document = f.read()
        f.close()
        terms = tokenize(document)
        num_c1+=len(terms)#类1总词数
        unique_terms = set(terms)
        for term in unique_terms:
            if term not in postings1:
                postings1[term] = (terms.count(term))
            else:
                postings1[term]=(postings1[term]+(terms.count(term)))
2、Tokenize使用和SVM同样的方法:
def tokenize(document):    
    document=document.lower()
    document=re.sub(r"\W|\d|_|\s{2,}"," ",document)
    terms=TextBlob(document).words.singularize()

    result=[]
    for word in terms:
        expected_str = Word(word)
        expected_str = expected_str.lemmatize("v")
        result.append(expected_str)
    return result 
3、对测试数据集上进行判断时,对文档进行同样的tokenize,而后计算分别属于每个类别的概率(取对数后),选择最大的作为该文本的类别。
for id in doc1_test:
        f = open(doc1_test[id],'r',encoding='utf-8',errors='ignore')
        document = f.read()
        f.close()
        terms = tokenize(document)
        p=[0,0,0,0,0]
        for term in terms:
            if term in postings1:
                p[0]+=math.log((postings1[term]+1)/(num_c1+nc1))
            else:
                p[0]+=math.log(1/(num_c1+nc1))
                
            if term in postings2:
                p[1]+=math.log((postings2[term]+1)/(num_c2+nc2))
            else:
                p[1]+=math.log(1/(num_c2+nc2))
                
            if term in postings3:
                p[2]+=math.log((postings3[term]+1)/(num_c3+nc3))
            else:
                p[2]+=math.log(1/(num_c3+nc3))
                
            if term in postings4:
                p[3]+=math.log((postings4[term]+1)/(num_c4+nc4))
            else:
                p[3]+=math.log(1/(num_c4+nc4))
            if term in postings5:
                p[4]+=math.log((postings5[term]+1)/(num_c5+nc5))
            else:
                p[4]+=math.log(1/(num_c5+nc5))
        
        if p[ss]==max(p):
            count1+=1
    print(ss+1,"类名:",Newspath1[74:])
    print("判对文档数:",count1,"总的文档数:",len(doc1_test))
    total_aRate = (total_aRate+count1/len(doc1_test))
    print("准确率为:",count1/len(doc1_test))

六、最终结果展示:

image.png

基本平均准确率能达到百分之90以上,达到预期实验效果。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,968评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,601评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,220评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,416评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,425评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,144评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,432评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,088评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,586评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,028评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,137评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,783评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,343评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,333评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,559评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,595评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,901评论 2 345

推荐阅读更多精彩内容