apache-spark - [解决] spark上下文已经停止,驱动正在重启。您的笔记本将自动重新附加
问题描述
如果您的笔记本或潜水员程序因以下错误而被杀死
代码
from pyspark.sql import SparkSession
def main():
spark_sess = SparkSession.builder.appName('app_name').config("spark.sql.extensions", "io.delta.sql.DeltaSparkSessionExtension").config("spark.sql.catalog.spark_catalog", "org.apache.spark.sql.delta.catalog.DeltaCatalog").getOrCreate()
print("hello")
spark_sess.stop()
if __name__ == '__main__':
main()
错误:
The spark context has stopped and the driver is restarting. Your notebook will be automatically reattached
解决方案
请检查您是否正在执行任何操作。
- spark_context.stop()
- 集群内存
当我们在数据块中运行任何东西时,我们不应该停止 spark 上下文。
推荐阅读
- sharepoint - 从 AWS Lambda 函数上传文件到 SharePoint
- python - 我在脚本中收到 ValueError
- java - 为什么 CustomProjectAggregationOperation 在 SpringMongoTemplate 中不起作用
- javascript - React Material UI Autocmplete,React-window 在列表顶部重新渲染
- c# - 将 Image-Source 绑定到 C# 的位置
- plugins - 如何在 Grafana 中的甜甜圈饼图的孔内添加文本
- php - 解决跟踪器中的 cpanel 错误
- c - C - 通过scanf获取数字后,但计算出错误的结果
- javascript - 如何使用 vanilla JavaScript 获取文本的字密度?
- r - 在 R Markdown 中使用 Stargazer 时出现浮动错误的字幕