scala - sparkSQL:“作业中未指定输入路径”,但同样的语句在 spark-shell 中工作
问题描述
使用 scala 在客户端模式下运行 spark 代码时,
sqlContext.sql(select columname from databasename.tablename).agg(max(columname))
给出错误
“作业中未指定输入路径”。
但是同样的声明在 spark-shell repl 中工作得非常好。
任何人都可以建议为什么会出现这个错误
解决方案
通过从 spark-submit 设置/删除 spark 配置参数spark.sql.parquet.cacheMetadata=false
。默认情况下,此参数设置为 true。此更改后问题已解决。
推荐阅读
- powershell - 从 DataGridView 导出
- python - 多重连接导致属性错误 SQLAlchemy
- python-3.x - 在python中提取月份的最后一天和第一天
- flutter - 如何将两个小部件放置在同一行中?
- angular - 如何在fabricJS中应用.otf字体?
- logging - 如何使用 Sqlline 在 Apache Calcite 中启用日志记录/跟踪?
- session - 无法在数据库中存储会话
- python - 使用每个人多行的Dataframe,创建一个每人一行并获取某个属性的模式(每人)
- javascript - 如何在 node.js 中导出许多猫鼬模型模块
- c# - 如何在 Prism 中向 IoC 注册课程