apache-spark - 是否有用于说明哪些作业已排队或正在运行的 spark 的 shell 命令?
问题描述
环境:Spark 1.6.2;Linux 2.6.x(红帽 4.4.x);Hadoop 2.4.x。
我今天早上启动了一项工作,spark-submit
但没有看到它应该写入的文件。我已经阅读了一些有关监视 Spark 作业的 Web UI 的内容,但是在这一点上,我对 Hadoop 集群和 HDFS 上发生的事情的唯一可见性是通过 bash-shell 终端。
问题:从命令行快速读取 spark 作业的标准方法是什么,以及它们可能留下的任何日志跟踪(在作业执行期间或之后)?
谢谢。
解决方案
您可以使用yarn application -list
推荐阅读
- python - 如何在给定矩阵中查找所有子矩阵值大于阈值(不使用 numpy 和 Scipy)
- javascript - 如何从同一文件夹将 js 文件导入到 chrome 扩展中的 background.js
- asp.net-web-api - Asp.Net Core swagger 控制器方法返回 404
- c# - 如何将没有空行的复制行从 RichTextBox 重构为 ArrayList
- node.js - NodeJS 在返回之前等待所有 url-exists
- android - 使用 Codemagic 构建的 Success Apk 不适用于 Firebase
- javascript - 我试图运行它,但它向我显示错误 path.split 不是反应中的函数
- testing - TestCafe - 如何使用远程浏览器运行并行测试?
- android - 如何使用 ViewModel 和 Room 从 DialogFragment 检索数据
- visual-studio - Unity2D:如何将播放器移动到触摸位置