apache-spark - 如何将查询从 Spark 写入 Redshift?
问题描述
我通过 SSH 连接到 Glue 中的 Dev Endpoint。Spark 2.4.1 正在运行。
我想运行一个简单的查询select * from pg_namespace;
同样在此之后,想要使用 COPY 命令将数据从 S3 移动到 Redshift。
如何在 Spark 控制台中编写它?
谢谢。
解决方案
不确定是否可以直接使用 COPY 命令,我还没有尝试过。
要将数据从 S3 移动到 Redshift,您可以使用 AWS Glue API。 请在此处查看来自 AWS 的示例代码?在幕后,我认为 AWS Glue 使用 COPY / UNLOAD 命令在 S3 和 REDSHIFT 之间移动数据。
推荐阅读
- php - 如何在wordpress中允许/调用多种帖子类型
- javascript - document.getElementById 失败在 asp.net 中
- android - AutocompleteDropdownlist 锚定到错误的 textView
- vba - 尝试基于多个键对数据进行排序时出现 VBA 错误 1004
- android - 如何使用意图通过蓝牙 BLE 发送双 [] 数组 - Android Studio (API 17)
- c - 如何在代码块上运行 Raspberry pi 的示例代码
- javascript - 将图像从数组迭代到类 javascript 中的类 img src
- c# - C# Ungreedy Regex 吞下换行符
- angular - 具有动态 arg 的货币管道
- javascript - 如何将现有的 Angular 2 TypeScript 应用程序迁移到 ReactJS?