首页 > 解决方案 > Hive解释计划理解

问题描述

是否有任何适当的资源可以让我们完全理解 hive 生成​​的解释计划?我曾尝试在 wiki 中搜索它,但找不到完整的指南来理解它。这是 wiki,它简要解释了解释计划的工作原理。但我需要有关如何推断解释计划的更多信息。 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Explain

标签: hadoophivehiveqlsql-execution-planexplain

解决方案


我会尽量解释一下我所知道的。

执行计划是对查询所需任务、执行顺序以及每个任务的一些详细信息的描述。要查看查询的执行计划,您可以这样做,在查询前加上关键字EXPLAIN,然后运行它。执行计划可能冗长而复杂。完全理解它们需要对MapReduce.

例子

EXPLAIN CREATE TABLE flights_by_carrier AS 
SELECT carrier, COUNT(flight) AS num 
FROM flights 
GROUP BY carrier;

这个查询是CTAS statement创建一个名为 flight_by_carrier 的新表,并用 a 的结果填充它SELECT query。按承运人对航班表的SELECT query行进行分组,并返回每个承运人以及该承运人的航班数量。

Hive 的EXPLAIN示例语句输出如下所示

+----------------------------------------------------+--+
|                      Explain                       |
+----------------------------------------------------+--+
| STAGE DEPENDENCIES:                                |
|   Stage-1 is a root stage                          |
|   Stage-0 depends on stages: Stage-1               |
|   Stage-3 depends on stages: Stage-0               |
|   Stage-2 depends on stages: Stage-3               |
|                                                    |
| STAGE PLANS:                                       |
|   Stage: Stage-1                                   |
|     Map Reduce                                     |
|       Map Operator Tree:                           |
|           TableScan                                |
|             alias: flights                         |
|             Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|             Select Operator                        |
|               expressions: carrier (type: string), flight (type: smallint) |
|               outputColumnNames: carrier, flight   |
|               Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|               Group By Operator                    |
|                 aggregations: count(flight)        |
|                 keys: carrier (type: string)       |
|                 mode: hash                         |
|                 outputColumnNames: _col0, _col1    |
|                 Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|                 Reduce Output Operator             |
|                   key expressions: _col0 (type: string) |
|                   sort order: +                    |
|                   Map-reduce partition columns: _col0 (type: string) |
|                   Statistics: Num rows: 61392822 Data size: 962183360 Basic stats: COMPLETE Column stats: NONE |
|                   value expressions: _col1 (type: bigint) |
|       Reduce Operator Tree:                        |
|         Group By Operator                          |
|           aggregations: count(VALUE._col0)         |
|           keys: KEY._col0 (type: string)           |
|           mode: mergepartial                       |
|           outputColumnNames: _col0, _col1          |
|           Statistics: Num rows: 30696411 Data size: 481091680 Basic stats: COMPLETE Column stats: NONE |
|           File Output Operator                     |
|             compressed: false                      |
|             Statistics: Num rows: 30696411 Data size: 481091680 Basic stats: COMPLETE Column stats: NONE |
|             table:                                 |
|                 input format: org.apache.hadoop.mapred.TextInputFormat |
|                 output format: org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat |
|                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe |
|                 name: fly.flights_by_carrier       |
|                                                    |
|   Stage: Stage-0                                   |
|     Move Operator                                  |
|       files:                                       |
|           hdfs directory: true                     |
|           destination: hdfs://localhost:8020/user/hive/warehouse/fly.db/flights_by_carrier |
|                                                    |
|   Stage: Stage-3                                   |
|       Create Table Operator:                       |
|         Create Table                               |
|           columns: carrier string, num bigint      |
|           input format: org.apache.hadoop.mapred.TextInputFormat |
|           output format: org.apache.hadoop.hive.ql.io.IgnoreKeyTextOutputFormat |
|           serde name: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe |
|           name: fly.flights_by_carrier             |
|                                                    |
|   Stage: Stage-2                                   |
|     Stats-Aggr Operator                            |
|                                                    |
+----------------------------------------------------+--+

阶段依赖

stages示例查询将在Stage-0 到 Stage-3四个阶段执行。每个stage都可以是MapReduce作业、HDFS动作、metastore动作或由Hive server.

编号并不意味着执行顺序或依赖关系。

阶段之间的依赖关系决定了它们必须执行的顺序,并HiveEXPLAIN结果开始时明确指定这些依赖关系。

根阶段,如本例中的 Stage-1,没有依赖关系,可以先自由运行。

非根阶段在它们所依赖的阶段完成之前无法运行。

阶段计划

输出的阶段计划部分显示阶段的描述。对于Hive,请从顶部开始阅读它们,然后再向下阅读。

阶段 1 被标识为MapReduce作业。

查询计划显示该作业同时包含 a map phase(由 Map Operator Tree 描述)和 a reduce phase(由 Reduce Operator Tree 描述)。在 中map phase,地图任务读取航班表并选择运营商和航班列。

这些数据被传递给reduce phase,其中 reduce 任务按承运人对数据进行分组,并通过计算航班来聚合它。

在 Stage-1 之后是 Stage-0,这是一个HDFS动作(移动)。

在这个阶段,Hive将前一个阶段的输出移动到 HDFS 仓库目录中的一个新子目录中。这是将命名为 flight_by_carrier 的新表的存储目录。

在 Stage-0 之后是 Stage-3,这是一个metastore动作:

创建表

在这个阶段,Hive在 fly 数据库中创建一个名为 flight_by_carrier 的新表。该表有两列:STRING名为carrier 的BIGINT列和名为num 的列。

最后阶段,Stage-2,收集统计数据

最后阶段的细节并不重要,但它收集的信息包括表中的行数、存储表数据的文件数以及表HDFS中每列中唯一值的数量。这些统计信息可用于优化Hive查询。


推荐阅读