python - 如何在 Databricks 的 PySpark 中使用在 Scala 中创建的 DataFrame
问题描述
我的 Databricks 笔记本使用 Python。笔记本中的一些代码是用 Scala 编写的(使用 %scala),其中之一是用于创建数据帧。
如果我再次使用 Python/PySpark(默认模式),我如何使用/访问在 scala 模式下创建的这个数据框?
甚至可能吗?
谢谢
解决方案
您可以通过 SparkSQL 中的临时表访问以一种语言和另一种语言创建的 DataFrame。
例如,假设您在 Scala 中有一个名为scalaDF
. 您可以创建一个临时视图并使其可供 Python 单元访问,例如:
scalaDF.createOrReplaceTempView("my_table")
然后在 Python 单元中,您可以运行
pythonDF = spark.sql("select * from my_table")
pythonDF.show()
这同样适用于在这些语言和 R 之间传递数据帧。常见的构造是 SparkSQL 表。
推荐阅读
- python - Windows 10 IIS 服务器上的 Python Flask 托管
- r - R如何在新列中获得afinn分数
- java - 将每个字符转换为另一个一致的字符
- angular - Angular cdkOverlay 禁用关闭
- javascript - Java 脚本验证问题
- javascript - 如果 API 有参数和标头,Service Worker 将缓存 WEBAPI 数据(等待 cache.addAll(API_URLS))
- javascript - 使用 Java 脚本 (JS) 从文本 (txt) 文件中提取特定值
- javascript - 如何停止onended函数onclick
- flutter - 在 Flutter 中是否可以知道用户当前滚动到哪个 PDF 页面?
- sql - 满足服务器端条件后显示按钮