apache-spark - 将 Hive 引擎从 mr 设置为 Spark 后“失败:执行错误,返回代码 3”
问题描述
我正在尝试在我的 Hive 查询中使用 Spark 引擎。
这是一个旧查询,我不想将整个代码转换为 spark 作业。
但是当我运行查询时,它会给出以下错误:
状态:失败
失败:执行错误,从 org.apache.hadoop.hive.ql.exec.spark.SparkTask 返回代码 3
我唯一改变的是执行引擎:
设置 hive.execution.engine=spark;
上述更改适用于其他类似查询。所以我不认为这是一个配置问题......
还是我不知道它是?
以前有人遇到过这个问题吗?
解决方案
检查作业的日志以查看真正的错误。返回代码 1、2 和 3 都是 MR 和 Spark 中的一般错误。
推荐阅读
- java - 有什么方法可以打印以下模式?
- c++ - How to draw a sample of n elements from std::set
- python - 如何在我的 Dockerfile 中使用私有 conda 通道?
- prolog - Prolog:用破折号连接 2 个常量变量
- kubernetes-helm - 如何降低 helm chart cert-manager 日志级别?
- python - Python:更新列表中的单个项目,更新整个列表
- microsoft-graph-api - Outlook 消息属性(标志、IsRead)和删除状态的同步
- c# - 为什么 sql_variant 数据类型只返回字符串?在 SQL-Server 和 VS# 调试器中?
- google-apps-script - Timestamp is generated when cell is not empty. If blank, timestamp is cleared
- django - TestCase 中的 Django Client.get() 从 django.utils.cache 返回 TypeError