r - R 并行计算中的内存优化
问题描述
我在 R 中面临关于内存分配的并行计算问题。
我正在经历内存使用量开始增长和增长,以至于在某些时候它会用完。
例如,请查看以下代码:
library(parallel)
set.seed(100)
data <- runif(100000000)
val <- mclapply(1:length(data), function(x) {data[x]/2}, mc.cores=3)
如果我使用多个内核,我会错过对内存管理的控制(在具有 8GB RAM 的机器上,我会很快进入交换)。考虑到数据是一个共享变量,不应在每个实例中复制,这是仅出于读取目的访问此类资源的最佳方式?
解决方案
推荐阅读
- java - 什么是责任驱动设计?
- ruby-on-rails - 多对多关系别名
- vb.net - 使用实体 (EF6) 从 BindingSource.List 中删除 DbContext 中的所有位置
- firebase - Flutter - 如何获取当前上下文?
- python - 为什么 OpenCV Python V3.4.2 中有多个类似颜色空间转换的枚举?
- http - 如何让 Firefox 缓存大图像?
- shell - 非法选项 -- xargs shell 命令的命令中的 1
- c# - 代码优先更新数据库使用未指定的 localdb 连接字符串
- r - 具有非唯一测试数据的混淆矩阵级别错误
- c# - 无法将 Unity 脚本附加到游戏对象