r - 如何将 R 代码已完成该过程并生成 csv 文件的信号传递给 Spark?
问题描述
我想将 R 代码与 Spark 集成。我在整合方面很成功。发布此集成后,我的 R 代码将生成一个 csv 文件,该文件将作为 Spark 代码的其余部分的输入。在这里,我想向 Spark 传递信号,表明我的 R 进程已完成并开始 Spark 代码处理。你能帮我用R代码吗?
解决方案
推荐阅读
- mysql - 如何从多个表中计算不同的 id?
- android - 我请求大量访问令牌而不重用 API 可以吗?
- python - Django 与 Peewee 连接池 MySQL 断开连接
- java - 从java中的哈希映射返回第n个值和键
- javascript - 发送数据后刷新 ng-model
- c++ - 如何在 C++ 中的 QMessageBox 中设置文本颜色
- python - Keras 中用于加权错误分类样本的自定义损失函数
- sql-server - 在 .NET Core 2.1 中将 IIS 基本身份验证传递给 SQL Server
- jquery - 自定义具有 4 个不同范围的 jQuery UI 滑块
- python - pymssql 无法连接到 SQL Server 数据库