python - VS Code Jupyter 扩展:在 Spark 集群上运行我的笔记本?
问题描述
- 我是一个极端的初学者,我喜欢使用 VS Code 的 Jupyter 扩展来编写 Python 代码。
- 我最近开始使用 Azure DataBricks,我的笔记本似乎在远程 Spark 集群上运行。
- 在远程 Spark 集群上运行我的笔记本时,我希望能够获得与 VS Code 的 Jupyter 扩展相同的体验。
- 有没有办法可以用其他类型的 Spark 集群做 #3?(理想情况下,我想对任意 Spark 集群执行此操作。)
问题 #4 取决于前提 1-3,这可能是错误的或具有误导性的。
我可能没有正确解释。我想我正在 VS Code 中寻找类似于JupyterLab Integration为 JupyterLab 所做的事情:
另一方面,JupyterLab 集成将笔记本保存在本地,但如果选择了远程内核,则在远程集群上运行所有代码。这使您的本地 JupyterLab 能够在 Databricks 维护的远程环境上运行单节点数据科学笔记本(使用 pandas、scikit-learn 等),或者在远程 Databricks GPU 机器上运行您的深度学习代码。
但是 JupyterLab 集成似乎部分依赖 SSH,所以也许有一种方法可以通过使用 SSH 在 JupyterLab 之外实现部分功能?
解决方案
推荐阅读
- apache-spark - Kafka S3 Sink Connector - 如何将分区标记为完整
- javascript - 尝试使用 JavaScript 设置 datetime-local
- firebase - 如何在firestore的文本字段中开始一个新段落
- react-native - createMaterialTopTabNavigator 无法修改 tabStyle paddingVertical
- python-3.x - Python 3.9:使用标准库构造 DST 有效时间戳
- java - 如何将 DB AWS 机密传递到 tomcat context.xml?
- php - 通过动态表 PHP 中基于行的按钮访问行值
- python - 使用 PyODBC 和 SQL-Alchemy 同步数据更新
- r - 用 plotly 绘制线图时定义配色方案
- flutter - 如何将 PX 值转换为颤振字体大小