apache-spark - 如何退出火花程序
问题描述
例如,如果我的加入条件失败,我如何从 Spark 程序中退出(通过强制显示错误消息)?
例子-
员工数据 - emp_id、dep_no
1,1001 2,2001
部门数据 - dep_no,dept_name, location
1001,xyz,纽约 3001,pqr,PA
现在,如果我想丰富员工数据,我需要与部门数据进行联接。我想要的只是每当我在部门数据中找不到部门(我的加入将失败),我想用 Spark(Scala)中的自定义错误消息停止进程(错误输出)。
谢谢, 席德
解决方案
根据您的用例,您可能希望使用以下 SparkContext 的方法之一:
def cancelJob(jobId: Int, reason: String): Unit
def cancelJobGroup(groupId: String)
def cancelAllJobs()
几个有用的调用:
def applicationId: String // to get current jobId
def setJobGroup(groupId: String, description: String, interruptOnCancel: Boolean = false) // to set groupId for all Spark jobs to be created by the current thread
推荐阅读
- python - 如何编写条件使用 django 查询集
- javascript - 在 iOS 的 javascript 中禁用长按振动
- c# - 如果现在没有运行,则使用 C# WinForms 启动一些程序
- spring - 带有参数化 Spring ApplicationContext 配置的 JUnit 参数化测试
- c - 如何在下面的 C 程序中访问来自其他文件的静态变量?
- php - 如何在php中获取数组的长度和值
- python - 合并列(1 月、2 月、3 月等)。
- socket.io - 你如何修复 Socket.io 跨域限制?(我已经尝试过以前的解决方案)
- rust - Rust 中的可变引用传递
- audio - ffmpeg - 复制音频通道但保持相同的质量