python - 如何使用 n-gram 进行分类任务?
问题描述
我将使用n-gram
. 我搜索了相关内容并编写了下面的代码。由于我是 python 的初学者,我有两个问题。
1- 为什么字典应该具有这种“真实”结构(标有注释)?这与朴素贝叶斯分类器输入有关吗?
2- 你推荐哪个分类器来完成这个任务?
欢迎任何其他缩短代码的建议:)。
from nltk.corpus import movie_reviews
from nltk.corpus import stopwords
from nltk import ngrams
from nltk.classify import NaiveBayesClassifier
import nltk.classify.util
stoplist = set(stopwords.words("english"))
def stopword_removal(words):
useful_words = [word for word in words if word not in stoplist]
return useful_words
def create_ngram_features(words, n):
ngram_vocab = ngrams(words, n)
my_dict = dict([(ng, True) for ng in ngram_vocab]) # HERE
return my_dict
for n in [1,2]:
positive_data = []
for fileid in movie_reviews.fileids('pos'):
words = stopword_removal(movie_reviews.words(fileid))
positive_data.append((create_ngram_features(words, n), "positive"))
print('\n\n---------- Positive Data Sample----------\n', positive_data[0])
negative_data = []
for fileid in movie_reviews.fileids('neg'):
words = stopword_removal(movie_reviews.words(fileid))
negative_data.append((create_ngram_features(words, n), "negative"))
print('\n\n---------- Negative Data Sample ----------\n', negative_data[0])
train_set = positive_data[:100] + negative_data[:100]
test_set = positive_data[100:] + negative_data[100:]
classifier = NaiveBayesClassifier.train(train_set)
accuracy = nltk.classify.util.accuracy(classifier, test_set)
print('\n', str(n)+'-gram accuracy:', accuracy)
解决方案
在数据训练之前,您需要将 n-gram 转换为大小为 <number_of_documents, max_document_representation_length> 的代码矩阵。例如,文档表示是一个词袋,其中语料库词典的每个词/n-gram 在文档中都有其频率。
朴素贝叶斯分类器是最简单的分类器。但它对嘈杂的数据效果不佳,需要平衡的数据类分布进行训练。您可以尝试使用任何增强分类器,例如梯度增强机或支持向量机。
所有分类器和转换器都在scikit-learn
库中可用。