首页 > 解决方案 > 是否可以使用一个 spark 上下文连接到两个不同的数据源?

问题描述

我是 Spark 的新手,我正在尝试使用 PySpark 连接到 Hive 以执行查询并将数据加载到数据帧,然后将该数据写入沙发库。基于示例,我必须为两者创建一个火花上下文才能连接到数据源。但是,我只能在脚本/会话中创建一个上下文。使用 Spark 将一组数据从一个数据源移动到另一个数据源的最佳实践是什么?

标签: scalaapache-sparkpysparkapache-spark-sql

解决方案


推荐阅读