首页 > 解决方案 > 从R中的语料库中删除停用词太慢了

问题描述

我已经加载了包含 16 个文本文件的语料库,但是从这个语料库中删除停用词大约需要 2 个小时。语料库的总大小为 31Mb。你知道我该如何解决这个问题吗?

multidocMBTI <- Corpus(DirSource("F:/my master course/Principle of analytics/DATA03"))
multidocMBTI <- tm_map(multidocMBTI, removeWords, stopwords("english"))

标签: rtextanalyticscorpustext-analysis

解决方案


推荐阅读