python - 更好的pythonic方式来处理非常大的python嵌套defaultdict?
问题描述
我正在构建一个嵌套的 defaultdict 数据结构,如下所示:
mydata = defaultdict(lambda: defaultdict(lambda: defaultdict(
lambda: defaultdict(lambda: defaultdict(lambda: defaultdict(int))))))
逐行处理大文件时。对于每一行处理,我执行以下操作:
mydata[level_1][level_2][level_3][level_4][level_5][level_6] += 1
文件处理完成后,我会遍历嵌套的 mydata dict 进行进一步总结。问题是当文件太大时,dict 将使用所有内存并且变得不可行。您能否为我指出一个更好的解决方案来解决这个问题?
解决方案
推荐阅读
- ruby-on-rails - 如何将变量从控制器传递到 Rails 5.2 中的模型?
- javascript - 使用 ES6 语法定义类方法属性
- php - 发布请求返回 false 但在 PHP 中的 phpmyadmin 中返回 true
- java - saveAndFlush() 不保存到模拟仓库
- arrays - 从原始数据集中删除目标和预测的简单方法
- java - 如何从一开始就读取来自 azure bus 主题的所有消息
- spring - 使用 restTemplate 来自 REST API 的空响应值
- python - 这个 Django 模板标签的预期操作顺序是否有条件正确?
- python - Beautiful Soup 错误【违规】避免使用 document.write()
- javascript - 进入下一步或上一步后插入的数据消失