java - 在子进程中的java应用程序中提交spark作业,子进程永远不会退出
问题描述
我试图通过在 Windows 环境中以下列方式创建一个新的子进程来向另一个 java 应用程序中的纱线集群提交一个火花作业
String command = "spark-submit --class package.runner --master yarn-cluster example.jar";
p = Runtime.getRuntime().exec(command);
p.waitFor();
然后我按命令提交了这个 java 应用程序,我检查了纱线管理器 UI,它显示 spark 作业已成功运行。但是,似乎 java 应用程序在 p.waitFor() 处被阻止,任何人都可以指出是什么问题?
解决方案
推荐阅读
- angular - 使用 HTML 插值来更改 Angular2+ 中的 CSS 样式是不好的做法吗?
- excel - 将文件另存为 csv,不断出现为 .xlsx
- html - 为什么我们不能使用 CSS 自定义 HTML 中选择选项的突出显示颜色?
- c# - 使用自定义过滤器在表单中输入 HTML 时 ASP.NET MVC 处理错误
- perl - 将导入的函数传递给 Perl 中的另一个包
- python - 数据框:如何为每一行选择不同的列
- r - 如何解决 RSelenium 错误消息“无法连接到 localhost 端口 4444:连接被拒绝”?
- url - 健康检查是否应该调用其他应用健康检查
- apache-httpcomponents - 监控 PoolingHttpClientConnectionManager 的连接池
- jq - 使用jq根据json数组中的变量值选择对象