首页 > 解决方案 > 朴素贝叶斯分类器是不好的估计器

问题描述

我在 Scikit-learn 指南(https://scikit-learn.org/stable/modules/naive_bayes.html)中读到了这个:

[...] 虽然朴素贝叶斯被认为是一个不错的分类器,但它被认为是一个糟糕的估计器,因此 predict_proba 的概率输出不要太认真'

既糟糕又体面?

标签: scikit-learnclassificationnaivebayes

解决方案


好的,让我们引用Francois Chollet 关于深度学习的书的第 2 版中的一段话,我相信这会阐明你的审讯。关键是朴素贝叶斯是第一个所谓的机器学习分类器之一,它假设输入数据中的特征都是独立的(朴素假设),仍然提供“下降”结果;但是,与最近的神经网络相比,分类任务的性能通常要低得多。

朴素贝叶斯是一种基于应用贝叶斯定理的机器学习分类器,同时假设输入数据中的特征都是独立的(一个强的或“朴素”的假设,这就是名称的来源)。这种形式的数据分析早于计算机,并且在其首次计算机实施(很可能可以追溯到 1950 年代)之前的几十年就被手工应用了。贝叶斯定理和统计学的基础可以追溯到 18 世纪,这些都是您开始使用朴素贝叶斯分类器所需要的一切。

一个密切相关的模型是逻辑回归(简称 logreg),它有时被认为是现代机器学习的“hello world”。不要被它的名字误导——logreg 是一种分类算法而不是回归算法。很像朴素贝叶斯,logreg 早于计算很长一段时间,但由于其简单和多功能的性质,它至今仍然有用。这通常是数据科学家在数据集上尝试的第一件事,以了解手头的分类任务。


推荐阅读