apache-spark - 数据插入表时从 HiveHBaseTableOutputFormat 到 HiveOutputFormat 的类转换异常
问题描述
当我尝试使用 Spark SQL 将数据插入到表中并打算通过 Hive 写入 HBase 时,我收到以下错误:
Caused by: java.lang.ClassCastException:
org.apache.hadoop.hive.hbase.HiveHBaseTableOutputFormat cannot be cast to
org.apache.hadoop.hive.ql.io.HiveOutputFormat
我正在使用 HBase 1.4.9、Hive 2.3.4 和 Spark 2.4.0。有谁知道如何解决这个问题?
解决方案
推荐阅读
- ios - iOS 13 - UIBarButtonItem 尺寸太小
- laravel - 复杂场景下的 Laravel 查询结果
- anaconda - 使用 SymPy (macOS) 安装 Octave 符号包 - 无法让 SymPy 工作
- c++ - 你可以在没有朋友标签的情况下重载c ++中的<<运算符吗
- vb.net - 从 form1 更新 form2 的列表框而不再次创建 form2
- debugging - 调试 API 时如何在 Postman 控制台中查看 ChromeLogger 输出?
- arrays - 动态/列表/数组变量颤动上的 setState
- java - RxJava 与 JavaFx 的性能差
- javascript - 传单路由机器值未显示
- r - 数据表的set函数中的ifelse条件