python-3.x - NLP 句子分割比 Python 算法有什么好处?
问题描述
我在 NLP 中有一个任务来进行句子分割,但我想知道,使用内置的 NLP 句子分割算法(例如 Spacy、NLTK、BERT 等)与 Python 相比有什么优势。分隔符或类似的算法?
是速度吗?还是准确性?还是更少的代码行?
这些算法与我们可以在 Python 中自己构建的算法相比有何不同或强大?
解决方案
SpaCy、NLTK 等 NLP 库中的句子分割例程可以更好地处理边缘情况,并且在处理标点符号和上下文方面更加稳健。例如,如果您选择通过处理“。”来拆分句子。作为一个句子边界,你会如何处理像“这个瓶子里有 0.5 升水。”这样的句子?
推荐阅读
- android - 从用户发送 FCM 推送到用户
- javascript - Array.length 在 for 循环中未产生预期结果
- c# - 不使用 HttpContext 获取 asp.net 网站的端口
- ruby-on-rails-5 - 忽略丢失的循环图像并显示当前的图像 - Rails 5 Active Storage
- django - Django 2 - 找不到“索引”的反向。“索引”不是有效的视图函数或模式名称
- c# - SOAP 服务器返回意外的操作
- webpack - Webpack4:如何处理子文件夹中的图像
- windows-services - 在 CI 服务器上运行时,testcafe E2E 测试在 Internet Explorer 11 上挂起(由 Windows 服务运行)
- python - 导出 svg 文件时,Plotly 无法访问 orca 服务器
- octobercms - 关系经理如何使用转发器字段?