前沿:自学过概率的人一定告诉贝叶斯定理,在信息领域内具有无与伦比的地位。贝叶斯算法是基于贝叶斯定理的一类算法,主要用来解决问题分类和重返问题。
人工智能之机器学习中尤为普遍的两种分类模型是1)决策树模型(DecisionTreeModel)和2)朴素贝叶斯模型(NaiveBayesianModel)。决策树DT早已谈过,请求参看之前有关文章。今天我们重点探究一下朴素贝叶斯(NB),留意这里NB不是牛X,而是NaiveBayesian。
^_^朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法。朴素贝叶斯原理非常简单,也很更容易构建,多用作文本分类、垃圾邮件过滤器、情感分析等。
英国数学家托马斯·贝叶斯(ThomasBayes)在1763年公开发表的一篇论文中,首先明确提出了贝叶斯定理。贝叶斯定理的应用于必须大量的计算出来,因此历史上很长一段时间,无法获得广泛应用。只有计算机问世以后,它才取得确实的推崇。
人们找到,许多统计资料量是无法事前展开客观辨别的,而互联网时代经常出现的大型数据集,再行再加高速运算能力,为检验这些统计资料量获取了便利,也为应用于贝叶斯定理建构了条件,它的威力正在日益显出。概念和定义:朴素贝叶斯法是基于贝叶斯定理与特征条件独立国家假设的分类方法。
朴素贝叶斯分类器NBC(NaiveBayesClassifier)发源于古典数学理论,具有扎实的数学基础,以及平稳的分类效率。朴素贝叶斯分类器(NBC)模型所须要估算的参数很少,对缺陷数据不过于脆弱,算法也比较简单。理论上,NBC模型与其他分类方法比起具备大于的误差率。
但是实质上并非总是如此,这是因为NBC模型假设属性之间互相独立国家,这个假设在实际应用于中往往是不正式成立的,这给NBC模型的准确分类带给了一定影响。贝叶斯分类是一系列分类算法总称,这类算法皆以贝叶斯定理为基础,故总称为贝叶斯分类。而朴素贝叶斯分类是贝叶斯分类中最简单,也是少见的一种分类方法。
理论基础:朴素贝叶斯最核心的部分是贝叶斯法则,而贝叶斯法则的基石是条件概率。贝叶斯法则如下:这里的C回应类别,输出待辨别数据,式子得出拒绝解法的某一类的概率。朴素贝叶斯分类器基于一个非常简单的假设:等价目标值时属性之间互相条件独立国家。朴素贝叶斯分类器模型:Vmap=argmaxP(Vj|a1,a2...an)Vj归属于V子集,其中Vmap是等价一个example,获得的最有可能的目标值。
其中a1...an是这个example里面的属性。Vmap目标值,就是后面计算出来得出结论的概率仅次于的一个。所以用max来回应。贝叶斯公式应用于到P(Vj|a1,a2...an)中。
可获得Vmap=argmaxP(a1,a2...an|Vj)P(Vj)/P(a1,a2...an)。又因为朴素贝叶斯分类器配置文件a1...an相互独立国家。所以P(a1,a2...an)对于结果没用处。
可获得Vmap=argmaxP(a1,a2...an|Vj)P(Vj)。"朴素贝叶斯分类器基于一个非常简单的假设:等价目标值时属性之间互相条件独立国家。换言之。该假设解释等价实例的目标值情况下。
本文来源:尊龙凯时网站-www.htyqc.com