apache-spark - 无法指向使用来自 spark 的配置单元创建的外部表
问题描述
我在 hive 中创建了外部表,并且能够从 hive shell 中查看表和记录。但是,当我试图通过提及路径从 spark-shell 指向同一个数据库时,我只能在 spark 中获取默认数据库,但无法看到我创建的数据库和表。
我还通过以下命令检查了路径
spark2.conf.get("spark.sql.warehouse.dir")
,它给出了我指定的相同位置。我也没有权限问题。
解决方案
1.在spark conf目录中检查你hive-site.xml
是否正确;
2.SparkSession.enableHiveSupport()
让你的sparkSession支持hive。
推荐阅读
- text - 如何从文件中 grep 和输出某些单词,直到它检测到某种模式?
- python - 使用 python wand 保存图像时的日期不正确
- android - 如何在android“Pie”中关闭应用程序时检测手机状态广播接收器
- laravel - 从 laravel 中的“Causer by”搜索不起作用
- macos - 如何通过源代码构建netty?由于 assertequals 模棱两可的方法调用,我在测试代码中失败了
- python - 如何使用 selenium 保存的密码?
- javascript - PayTM 商家页面未呈现
- vb.net - 阿拉伯语 Base64 编码不正确
- c# - “找不到文件”:尝试在库中创建新文件夹时,标题的第一个为空白
- mysql - 难道 Update Select SQL Query 已经内置在 Queuing 里面了?