scala - 是否可以使用一个 spark 上下文连接到两个不同的数据源?
问题描述
我是 Spark 的新手,我正在尝试使用 PySpark 连接到 Hive 以执行查询并将数据加载到数据帧,然后将该数据写入沙发库。基于示例,我必须为两者创建一个火花上下文才能连接到数据源。但是,我只能在脚本/会话中创建一个上下文。使用 Spark 将一组数据从一个数据源移动到另一个数据源的最佳实践是什么?
解决方案
推荐阅读
- javascript - 开玩笑,测试一个输出字符串
- azure - 在 kubernetes 内的 server.xml 中设置环境变量
- reactjs - react-native-maps 自定义 Tiles 未显示
- jquery - window.resize,显示如何等待选项卡内容
- asp.net - 从 Web 窗体中的复合控件中的链接按钮获取单击事件
- sql - SQL左外连接表
- node.js - 在 nest.js 控制器中使用类验证器验证嵌套对象
- c# - 模棱两可的方法调用c#
- sql-server - 如何在同一个表上针对列中的不同值运行两个查询(SQL Server)
- dialogflow-es - Google 上的操作 - 突然不断进入后备权限