apache-spark - 为什么我不需要在 Databricks 中创建 SparkSession?
问题描述
为什么我不需要在 Databricks 中创建 SparkSession?配置集群时是否会自动创建 SparkSession?还是别人为我做的?
解决方案
这仅在笔记本中完成,以简化用户的工作并避免他们指定不同的参数,其中许多不会有任何效果,因为 Spark 已经启动。此行为类似于您在开始时得到的行为spark-shell
或pyspark
- 它们都初始化SparkSession
and SparkContext
:
Spark context available as 'sc' (master = local[*], app id = local-1635579272032).
SparkSession available as 'spark'.
但是,如果您将 jar 或 Python Wheel 中的代码作为作业运行,那么您有责任创建相应的对象。
推荐阅读
- javascript - 添加第 17 个 Mapbox 地图后,Slick 幻灯片失败
- javascript - 比较数组和对象的值,如果为真,则将它们保存到另一个对象
- google-apps-script - 有没有办法自动打印谷歌表格下拉菜单中的所有选项?
- linux - 将动态加载的二进制文件静态链接到二进制文件中
- java - 以下方法不存在:org.springframework.dao.annotation.PersistenceExceptionTranslationPostProcessor.setProxyTargetClass(Z)V
- reactjs - 当我“添加到主屏幕”时,为什么我的应用程序不使用 manifest.json?
- javascript - 如何使用与jquery兼容的json格式制作下拉列表
- ios - UIViewController.storyboard 只能在主线程中使用 - 新错误我不知道如何修复?
- python - 使用QWebEngine登录SAML授权页面,等待cookie,然后清理/退出
- javascript - (Moodle) 导出包含 HighCharts 图像的 .xlsx 文件时,我不断获取原始数据