r - 使用大数据运行 cron 作业
问题描述
我在 AWS 上运行 RStudio,我有一个 cron 作业设置,每 5 分钟运行一次。唯一的问题是我想让这项工作使用两个相当大的数据文件(一个是 1.3gb .rds,另一个是 2.2gb .feather)来执行一些计算,但是 readRDS/read_feather 需要太长时间.
有什么方法可以执行缓存数据的 cron 作业,或者是否有另一种方法来解决这个问题(作业应该在下一个 5 分钟标记之前按时完成)而不诉诸于,比如说,无限循环执行这个函数全球环境?
谢谢!
解决方案
推荐阅读
- sequence - 如何从特定数字(如 5000 或 6000)开始序列?
- android - Android(MP 图表)
- tensorflow - InvalidArgumentError 使用 tensorflow-gpu==2.0.0a0 构建具有两个模型生成器和鉴别器的 tf.keras.models.Model 时出错
- java - 如何在 Java 中正确删除数组
- css - 左上角的“后退”按钮功能与 chrome 浏览器错误上的“<-”图标,以某种方式影响我的网站
- git - Azure Pipelines:我快要死了:无法读取“https://github.com”的用户名:终端提示已禁用
- c - I2C接收,PIC中的错误数据接收
- javascript - 如何在 JavaScript 代码中获取 JavaScript 对象?
- sql - 案例表达太复杂
- python - 颠倒行序和操作效率