apache-spark - 无法在 spark Sql-Incomplete HDFS URI 中读取临时表
问题描述
import org.apache.spark.sql.hive.orc._
import org.apache.spark.sql._
val sparksession=SparkSession.builder()
.master("local").appname("MyApp").enableHiveSupport.getOrCreate();
val Df1=sparksession.read.format("csv").option("header","false")
.option("inferSchema","false").load("file_loc/file_name")
Df1.createOrReplaceTempView("Temp_Table")
val Df2=sparksession.sql(select * from Temp_Table)
我正在尝试从临时表中读取数据,但是在从该表中选择数据时,我遇到了不完整的 HDFS URI 问题。
直到Df1.createOrReplaceTempView("Temp_Table")
行一切正常,但是当我执行最后一行时,出现错误消息。
org.apache.spark.sql.AnalysisException:org.apache.hadoop.hive.q1.metadata.HiveException:MetadataException(message:message:MetadataException(message:
Got exception:java.io.IOException Incomplete HDFS URI,no host: hdfs://hostname:port:port/apps/spark/warehouse))
Caused by:org.apache.hadoop.hive.ql.metadata.HiveException: MetadataException((message:message:MetadataException(message:
Got exception:java.io.IOException Incomplete HDFS URI,no host: hdfs://hostname:port:port/apps/spark/warehouse))
Caused by:org.apache.hadoop.hive.metastore.api.MetadataException:MetadataException((message:message:MetadataException(message:
Got exception:java.io.IOException Incomplete HDFS URI,no host: hdfs://hostname:port:port/apps/spark/warehouse))
检查了所有配置文件,但找不到要在配置文件中某处设置两次的端口号,如上面的错误消息中所述。您能否提示我还需要检查什么才能解决此问题?或者有什么方法可以使用 sparksession 设置这个值?
解决方案
推荐阅读
- javascript - 奇怪的 JSON 之类的符号。这是什么语言?
- java - 在后端处理 PUT http 请求中的可选字段的最佳方法是什么
- python - 根据另一个列表的元素添加一个列表的元素
- django - 如何注释现有的查询集
- kiwi-tcms - 避免使用 Kiwi-tcms 手动编写测试用例
- javascript - 如何显示 HTML 元素的数量等于 JavaScript 数量?
- arrays - 要显示其信息的用户 ID 数组;你如何过滤代码中其他地方的那些?
- abp - 使用 AbpApplicationFactory.Create 覆盖 IConfiguration
- javascript - 通过 GupShup 发送图像
- angular - HTTP 获取请求基本身份验证?