apache-spark - 如何使用 Spark-Redshift 连接器设置 wlm_query_slot_count
问题描述
我正在使用 spark-redshift 连接器从 Spark 启动查询。
val results = spark.sqlContext.read
.format("com.databricks.spark.redshift")
.option("url", url_connection)
.option("query", query)
.option("aws_iam_role", iam_role)
.option("tempdir", base_path_temp)
.load()
我想增加槽数以改进查询,因为它是基于磁盘的。但我不知道如何在连接器中进行下一个查询:
set wlm_query_slot_count to 3;
我不知道如何做到这一点,因为在连接器中的读取命令中没有像在写入命令中那样提供前置操作和后置操作。
谢谢
解决方案
推荐阅读
- javascript - 基于真/假值的文本颜色
- java - JPA + Hibernate:如何将数组绑定与 CriteriaBuilder 一起使用,即使最终查询类似于“... in (?)”,而不是“... in (?, ?, ?)”?
- node.js - Nodemon不使用express在docker中更改时重新加载文件
- tableau-api - 查找的替代方案
- r - 这是如何错误的参数数量?
- list - 我如何将列表划分为总和到给定数字(不重复)的子集?
- mysql - 为什么我的多行 MySQL 查询在 node.js 中不起作用
- java - 在java中注册热键(处理)
- javascript - 热模块重新加载后传单从哪里加载数据?
- python-3.x - 调用 widget.show() 时定义 closeEvent