r - 从R中的语料库中删除停用词太慢了
问题描述
我已经加载了包含 16 个文本文件的语料库,但是从这个语料库中删除停用词大约需要 2 个小时。语料库的总大小为 31Mb。你知道我该如何解决这个问题吗?
multidocMBTI <- Corpus(DirSource("F:/my master course/Principle of analytics/DATA03"))
multidocMBTI <- tm_map(multidocMBTI, removeWords, stopwords("english"))
解决方案
推荐阅读
- c - 我错过了哪个测试用例?
- postgresql - 使用带有 postgresql 的 docker 卷来验证它是否保存在主机文件系统上
- javascript - 执行代理请求时出现“无法建立隧道套接字”错误
- highcharts - Highchart去除小数位
- spring - 错误通道在拆分器/聚合器中不起作用(异步调用)
- python - 当相同的 POST 在 Postman 中正常工作时,如何解决 Python 请求 POST 失败?
- java - 我的应用程序不检查 location.addOnCompleteListener() 并崩溃
- node.js - 如何从模块中获取日期到 index.js
- python - 设置感知器的阈值
- javascript - Electron IPC 和节点集成