美文网首页
朴素贝叶斯算法从入门到Python实践

朴素贝叶斯算法从入门到Python实践

作者: 老周算法 | 来源:发表于2020-01-02 20:45 被阅读0次

    1,前言

    很久不发文章,整理些干货,希望相互学习吧。进入主题,本文主要时说的为朴素贝叶斯分类算法。与逻辑回归,决策树一样,是较为广泛使用的有监督分类算法,简单且易于理解(号称十大数据挖掘算法中最简单的算法)。但其在处理文本分类,邮件分类,拼写纠错,中文分词,统计机器翻译等自然语言处理范畴较为广泛使用()或许主要得益于基于概率理论),本文主要为小编从理论理解到实践的过程记录。

    2,公式推断

    贝叶斯定理预习知识:我们知道当事件A和事件B独立时,P(AB)=P(A)(B),若事件不独立,则P(AB)=P(A)P(B|A)。其为两件事件同时发生时的一般公式(无论事件A和B是否独立)。当然也可以写成P(AB)=P(B)P(A|B),表示若要两件事同事发生,则需要事件B发生后,事件A也要发生,由上可知:

       P(A)P(B|A)= P(B)P(A|B)
    
      推出P(B|A)=P(B)P(A|B)/ P(A)
    

    其中P(B)为先验概率,P(B|A)为B的后验概率,P(A|B)为A的后验概率(在这里也为似然值),P(A)为A的先验概率(在这也为归一化常量),下面为朴素贝叶斯算法的数学推导过程:

    式推断

    由上推导可知,其实朴素贝叶斯法就是在贝叶斯定理基础上,加上特征条件独立假设,对特定输入的X(样本,包含N个特征),求出后验概率最大值时的类标签Y(如是否为垃圾邮件),理解起来比逻辑回归要简单多,有木有,这也是本算法优点之一,当然运行起来由于得益于特征独立假设,运行速度也更快。

    3,参数估计

    3.1. 极大似然估计:

    至此,我们知道朴素贝叶斯方法的学习就是对概率P(Y=ck)和P(X(j)=x(j)|Y=ck)的估计。其实,我们可以用极大似然估计法估计上述先验概率和条件概率。

    极大似然估计

    其中I(x)为指示函数,若括号内成立,则计1,否则为0。李航的课本直接给出了用极大似然(MLE)估计求出的结果,并没给推导过程,具体推导过程可在知乎上搜索极大似然估计法推出朴素贝叶斯法中的先验概率估计公式。

    3.2. 贝叶斯估计:

    贝叶斯较为常见的问题为0概率问题。为此,需要平滑处理,主要使用拉普拉斯平滑,如下所示:

    贝叶斯估计

    K是类的个数,Sj是第j维特征的最大取值。实际上平滑因子λ=0即为最大似然估计,这时会出现提到的0概率问题;而λ=1则避免了0概率问题,这种方法被称为拉普拉斯平滑。

    4,算法流程

    算法流程

    5,****素贝叶斯算法优缺点

    优点:

    1,朴素贝叶斯模型发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。

    2,需调参较少,简单高效,尤其是在文本分类/垃圾文本过滤/情感判别等自然语言处理有广泛应用。

    3,在样本量较少情况下,也能获得较好效果,计算复杂度较小,即使在多分类问题。

    4,无论是类别类输入还是数值型输入(默认符合正态分布)都有相应模型可以运用。

    缺点:

    1,零概率问题,需要平滑处理,通常为拉普拉斯平滑,但加一平滑不一定为效果最好.

    2,朴素贝叶斯有分布独立的假设前提,生活中较少完全独立,在属性个数比较多或者属性之间相关性较大时,NBC模型的分类效率比不上决策树模型。而在属性相关性较小时,NBC模型的性能最为良好。

    模型注意点:

    1, 大家也知道,很多特征是连续数值型的,一般选择使用朴素贝叶斯高斯模型。

    2, 为避免0概率事件,记得平滑,简单一点可以用『拉普拉斯平滑』。先处理处理特征,把相关特征去掉,

    3, 朴素贝叶斯分类器一般可调参数比较少,需集中精力进行数据的预处理等特征工程工作。

    6,Scikit-learn三大朴素贝叶斯模型

    Scikit-learn里面有3种不同类型的朴素贝叶斯(主要摘自寒小阳 CSDN博客):

    1, 高斯分布型模型:用于classification问题,假定属性/特征是服从正态分布的,一般用在数值型特征。,

    2, 多项式型模型:用于离散值模型里。比如文本分类问题里面我们提到过,我们不光看词语是否在文本中出现,也得看出现的次数。如果总词数为n,出现词数为m的话,说起来有点像掷骰子n次出现m次这个词的场景。

    3, 伯努利模型:这种情况下,就如提到的bag ofwords处理方式一样,最后得到的特征只有0(没出现)和1(出现过)。

    7,算法实践

    小编通过实现朴素贝叶斯三种模型以及主要分类算法(用来对比),发现跟SVM,随机森林,融合算法相比,贝叶斯差距明显,但其时间消耗要远低于上述算法,以下为主要算法主要评估指标)。

    算法对比

    8,代码

    --coding: utf-8 --

    importtime
    
    fromsklearn import metrics
    
    fromsklearn.naive_bayes import GaussianNB
    
    fromsklearn.naive_bayes import MultinomialNB
    
    fromsklearn.naive_bayes import BernoulliNB
    
    fromsklearn.neighbors import KNeighborsClassifier
    
    fromsklearn.linear_model import LogisticRegression
    
    fromsklearn.ensemble import RandomForestClassifier
    
    fromsklearn import tree
    
    fromsklearn.ensemble import GradientBoostingClassifier
    
    fromsklearn.svm import SVC
    
    importnumpy as np
    
    importurllib
    
    # urlwith dataset
    
    url ="http://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data"
    
    #download the file
    
    raw_data= urllib.request.urlopen(url)
    
    #load the CSV file as a numpy matrix
    
    dataset= np.loadtxt(raw_data, delimiter=",")
    
    #separate the data from the target attributes
    
    X =dataset[:,0:7]
    
    #X=preprocessing.MinMaxScaler().fit_transform(x)
    
    #print(X)
    
    y =dataset[:,8]
    
    print("\n调用scikit的朴素贝叶斯算法包GaussianNB ")
    
    model= GaussianNB()
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的朴素贝叶斯算法包MultinomialNB ")
    
    model= MultinomialNB(alpha=1)
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的朴素贝叶斯算法包BernoulliNB ")
    
    model= BernoulliNB(alpha=1,binarize=0.0)
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的KNeighborsClassifier ")
    
    model= KNeighborsClassifier()
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的LogisticRegression(penalty='l2') ")
    
    model= LogisticRegression(penalty='l2')
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的RandomForestClassifier(n_estimators=8)  ")
    
    model= RandomForestClassifier(n_estimators=8)
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的tree.DecisionTreeClassifier() ")
    
    model= tree.DecisionTreeClassifier()
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的GradientBoostingClassifier(n_estimators=200) ")
    
    model= GradientBoostingClassifier(n_estimators=200) 
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    print("\n调用scikit的SVC(kernel='rbf', probability=True) ")
    
    model= SVC(kernel='rbf', probability=True)
    
    start_time= time.time()
    
    model.fit(X,y)
    
    print('training took %fs!' % (time.time() - start_time))
    
    print(model)
    
    expected= y
    
    predicted= model.predict(X)
    
    print(metrics.classification_report(expected,predicted))
    
    print(metrics.confusion_matrix(expected,predicted))
    
    """
    
    # 预处理代码集锦
    
    importpandas as pd
    
    df=pd.DataFrame(dataset)
    
    print(df.head(3))
    
    print(df.describe())##描述性分析
    
    print(df.corr())##各特征相关性分析
    
    ##计算每行每列数据的缺失值个数
    
    defnum_missing(x):
    
      return sum(x.isnull())
    
    print("Missing values per column:")
    
    print(df.apply(num_missing, axis=0)) #axis=0代表函数应用于每一列
    
    print("\nMissing values per row:")
    
    print(df.apply(num_missing, axis=1).head()) #axis=1代表函数应用于每一行"""
    

    相关文章

      网友评论

          本文标题:朴素贝叶斯算法从入门到Python实践

          本文链接:https://www.haomeiwen.com/subject/fataoctx.html