jupyter-notebook - 构建 Stanza Document 时内存不足
问题描述
系统规格: - 设备:- NVIDIA Jetson AGX Xavier [16 GB] - Jetpack 4.5.1 8 核 CPU RAM:- 32 GB 管道看起来像
nlp = stanza.Pipeline('en', use_gpu=True, batch_size=100, tokenize_batch_size = 32, pos_batch_size = 32, , depparse_batch_size = 32)
doc = nlp(corpus)
我正在尝试使用处理器构建一个 Stanza 文档:- tokenizer、pos、depparse、error、sentiment、ner;在使用大约 300MB 的 txt 数据集来构建 Stanza 文档时,我的内存 (RAM) 不足,然后 jupyter notebook 停止并且内核死亡,即使有 100MB 的数据内核也会死亡。(我尝试过使用更高的批次大小,甚至更低,但问题仍然存在)
解决方案
推荐阅读
- android-studio - 从两个不同的活动将 EditText 值传递给 ListView
- java - Dropbox Java API - 文件所有者电子邮件
- python - 在 Django 的提交表单中获取错误的格式输入(日期时间格式)时如何打印错误?
- css - CSS:为什么我的媒体查询不起作用?
- themes - 如何处理使用模式实验室构建的组件的主题?
- php - 如果时间字段为空,如何将空值发送到数据库表列?
- javascript - 当实时数据将由 FCM 更改时,我如何在 android 中获得通知?
- javascript - javascript 如何将函数从命令式更改为函数式
- kdb - kdb 中当前和指定命名空间中的views[] (\b) 行为
- ssas - 在分析多维数据集中创建计算以按标准生成不同计数