hadoop - 从 pyspark sql 中查找用于 hive 查询的 hive 表分区
问题描述
我有一个配置单元外部表,其中有几列按日期分区。数据采用 avro 格式。我想证明或查看来自 spark sql 的查询正在使用哪些分区。
我知道我们可以使用 "EXPLAIN DEPENDENCY SELECT * from table where date ='2019-12-20' 从 hive cli 中找到分区信息。我也知道使用 explain() 方法从 spark sql 获取执行计划。但这没有' t 显示分区信息。
请帮助我查看使用来自 spark 的表分区信息的方法。
谢谢
柴塔尼亚 M
解决方案
推荐阅读
- android - 从 org.bytedeco.javacv.Frame 获取原始数据
- oracle - 无法在 OBIEE 中查询多个学科领域
- angular - 在 angular4 的输入字段中添加千位分隔符
- android - 在房间持久库中无法使用 like 子句
- android - 有两行字时如何在Android中为按钮保留圆角
- javascript - 克隆一个画布矩形,单击按钮时带有动画
- javascript - 如何在 Reactjs 中使用 Array.map 格式化和显示 JSON 数据?
- typo3 - TYPO3:元标记作者,如何同时使用姓名和电子邮件
- java - 如何告诉 mysql 表将下一条匹配记录检索到我的默认表模型中
- python - env:python:参数列表太长