python-3.x - 运行scala spark应用程序后如何运行python脚本
问题描述
我想在运行 spark scala 应用程序之后运行 python 脚本。
我试过了
30 00 * * * spark scala job command && python script2.py
但它不运行python脚本
解决方案
无论您的 spark-submit 是否成功运行,您都不会使用“$?”得到答案。在 shell 中作为状态。要获得火花作业的状态,您需要运行
yarn application -status <application id of the spark job>
根据您运行 if [ $condition ] 的结果希望有帮助
推荐阅读
- c# - c#forms如何获取用户控件的dll输出以从添加到现有项目的项目中添加到工具箱
- c++ - 版本 10 和 11 之间的 GCC ABI 兼容性
- javascript - 使菜单在单击时消失
- python - Pandas:如果语句具有多个条件
- reactjs - React Native End to End Tests with Detox:获取匹配元素的高度、宽度和其他属性
- python - Python-来自用户输入的 GET 请求
- php - 如何从@foreach 传递数据到编辑模式
- vba - Solidworks 宏按钮 - 方法下拉列表为空
- kubernetes - 使用 Prometheus Adapter 来自其他部署的 Kubernetes HPA 自定义指标
- html - 如何将子 div 放在文档的左上角。甚至高于父母的div?