python - 是否可以在 SBATCH 进程之间使用共享变量?
问题描述
我正在使用一个非常大的文件(1500 万行,所以 ~44Go)进行 ML/NLP 项目。
我必须启动 28 个需要加载这个非常大的文件的体验。[...] 我不想在我的 RAM 中加载 28*44=1.232To ,而是喜欢使用共享变量,所以每次我需要处理这个文件时,我都可以重用同一个变量。
我正在使用slurm/SBATCH和Python开发一个集群,你认为可以在这些进程之间共享一个变量吗?
解决方案
推荐阅读
- typescript - 如何在非静态 getter 中使用“new this”?
- java - 使用 Spring Boot 和 Thymleaf 发布表单错误地使用 GET 方法而不是 POST
- swift - 如何从 Firestore 服务器时间戳中提取本地时间?
- c++ - CMake add_executable 应该包含头文件吗?
- parquet - Azure Datafactory 从 parquet 复制数据
- mysql - 查找,必要时在一条 SQL 语句中插入
- javascript - 如何在 React Router 中包含 props 回调
- javascript - 如何在 JavaScript 中制作“类型效果”?
- google-apps-script - 谷歌表单上传文件夹视图/树
- pandas - 使用 sklearn 进行逻辑回归的情绪分析