apache-spark - 如何重新启动停止的 Spark 上下文?
问题描述
我正在使用 apache zeppelin 和 hadoop 运行 Spark。我的理解是 Zeppelin 就像一个 kube 应用程序,它向运行 Spark 并使用 Hadoop 访问文件的远程机器发送命令。
我经常遇到 Spark Context 停止的情况。过去,我认为这是因为我用需要太多数据的数据拉取系统使系统过载,但现在我对这个理论不太感兴趣。在运行完全合理和正常的查询后,我经常发生这种情况。
为了重新启动 Spark 上下文,我已经进入解释器绑定设置并重新启动了 spark。
我也运行了这个命令
%python
JSESSIONID="09123q-23se-12ae-23e23-dwtl12312
YOURFOLDERNAME="[myname]"
import requests
import json
cookies = {"JSESSIONID": JSESSIONID}
notebook_response = requests.get('http://localhost:8890/api/notebook/jobmanager', cookies=cookies)
body = json.loads(notebook_response.text)["body"]["jobs"]
notebook_ids = [(note["noteId"]) for note in body if note.get("interpreter") == "spark" and YOURFOLDERNAME in note.get("noteName", "")]
for note_id in notebook_ids:
requests.put("http://localhost:8890/api/interpreter/setting/restart/spark", data=json.dumps({"noteId": note_id}), cookies=cookies)
我也去了运行 spark 的机器并输入yarn top
,但我没有在正在运行的应用程序列表中看到我的用户名。
我知道如果我重新启动机器,我可以让它工作,但这也会为使用它的其他人重新启动机器。
我可以通过哪些其他方式重新启动 Spark 上下文?
解决方案
推荐阅读
- r - r 中带有 reshape::melt 的持续警告消息
- python - 为什么我的 python 脚本可以在桌面上运行,但不能在程序中运行
- javascript - (DiscordJS) 尝试在消息 ID 之前获取消息,但不断获取最新消息
- hl7-v2 - HL7 V2.2 - SIU^S12
- python - 空白窗口在主窗口之前短暂弹出
- python - 快速排序实现的问题
- bash - 初学者:如何在花括号内使用 $variable?
- python - 蟒蛇名称正则表达式
- visual-studio - 如何下载并运行上传到 github 的游戏?
- opengl-es - 将相机位姿转换为openGL平移和旋转