apache-spark - pyspark:如何获取 spark 数据帧的 Spark SQLContext?
问题描述
我有一个接受 spark DataFrame 的函数,我想获取 DataFrame 所在的 Spark 上下文。
原因是我想得到,SQLContext
所以我可以运行一些 SQL 查询
sql_Context = SQLContext(output_df.sparkContext())
sql_Context.registerDataFrameAsTable(output_df, "table1")
sql_Context.sql("select * from table1") # or some more complicated query
但当然output_df.sparkContext()
不起作用。获取 Spark DataFrame 的 sparkContext 的正确方法是什么?
解决方案
output_df.rdd.context
做这项工作
推荐阅读
- java - 无法在本地运行 GCP DataflowTemplates
- php - 如何在php中上传之前将base64图像调整为300 * 300?
- javascript - 如何从 blob url (URL.createObjectURL()) 创建 pdf 的文件对象
- java - POP3:连接到主机“pop.163.com”,端口 110,isSSL false
- sql - 如何在 SQL 中处理多维矩阵?
- kendo-ui - 如何在 xi18n Angular5 本地化中转义单个大括号
- amazon-aurora - 连接到 Aurora AWS 无服务器
- arduino - 在 Sony Spresense 上反复播放音频
- javascript - Slick JS - 如何使用 ajax 数据重新加载内容
- matlab - 如何绘制 fminsearchbnd 函数?