python - 如何在朴素贝叶斯中获得特征重要性?
问题描述
我有一个评论数据集,其类别标签为正面/负面。我将朴素贝叶斯应用于该评论数据集。首先,我正在转换成词袋。这里sorted_data['Text']是评论,而final_counts 是稀疏矩阵
count_vect = CountVectorizer()
final_counts = count_vect.fit_transform(sorted_data['Text'].values)
我将数据拆分为训练和测试数据集。
X_1, X_test, y_1, y_test = cross_validation.train_test_split(final_counts, labels, test_size=0.3, random_state=0)
我正在应用朴素贝叶斯算法如下
optimal_alpha = 1
NB_optimal = BernoulliNB(alpha=optimal_aplha)
# fitting the model
NB_optimal.fit(X_tr, y_tr)
# predict the response
pred = NB_optimal.predict(X_test)
# evaluate accuracy
acc = accuracy_score(y_test, pred) * 100
print('\nThe accuracy of the NB classifier for k = %d is %f%%' % (optimal_aplha, acc))
这里 X_test 是测试数据集,其中 pred 变量告诉我们 X_test 中的向量是正类还是负类。
X_test 形状为(54626 行,82343 维)
pred 的长度是 54626
我的问题是我想得到每个向量中概率最高的单词,这样我就可以通过单词了解它为什么预测为正类或负类。那么,如何得到每个向量中概率最高的词呢?
解决方案
coefs_
您可以使用orfeature_log_prob_
属性从拟合模型中获取每个单词的重要性。例如
neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()[::-1]
pos_class_prob_sorted = NB_optimal.feature_log_prob_[1, :].argsort()[::-1]
print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]))
print(np.take(count_vect.get_feature_names(), pos_class_prob_sorted[:10]))
为您的每个班级打印前 10 个最具预测性的单词。
推荐阅读
- javascript - 无法从 C:\Users\vkgan\ForRealNow\navigators\RootStack.js 解析模块 ./screens/Login:
- django - 用户注册后如何通过 django-admin 面板批准或拒绝用户?
- python - C++ python绑定:导入cv2失败
- ubuntu - Yacc/bison 解析:错误的语法错误
- python - 从 on_reaction_add 获取嵌入标题
- machine-learning - Tensorflow:tf.trainable_variables() 不显示我的模式权重
- git - 如果我在忽略文件夹路径中使用通配符,如何在 .gitignore 中执行异常?
- git - 如何更新 git 以获取自 Clone 以来一直在处理的资源?
- sql - 用于返回链的 SQL 查询
- teamcity - 有没有办法确定哪个项目和用户拥有或关联了 Team City 中的代理