scala - 如何检查 HDFS 文件夹是否包含 CSV parquet 文件?
问题描述
如何以编程方式检查何时使用
spark.read.csv(path)
或者
spark.read.parquet(path)
无需用户说明路径是否包含镶木地板或文本文件。路径应该在 HDFS 上。
解决方案
我会利用 scalaTry
并尝试使用函数一一导入文件类型,orElse
而不是以编程方式检查它们的扩展名 -
def readCsv(): Try[DataFrame] = ???
def readParquet(): Try[DataFrame] = ???
val dfTry: Try[DataFrame] = readCsv().orElse(readParquet())
readParquet()
如果您有更多镶木地板读取请求,您可以先拨打电话。
推荐阅读
- mysql - AWS RDS 无法设置公共可访问属性
- c# - 涉及 Microsoft.Azure.ServiceBus.Core.MessageReceiver 时如何进行单元测试
- java - 如何使 Java AWT 动作侦听器多次运行
- docker - 在 localhost 中无法访问 Dockerized Flask 应用程序
- angular - 如何使用 ErrorInterceptor 正确拦截 HTTP 错误并在 Angular10 中创建自定义错误
- wordpress - WordPress 中的 409 期联系表 7
- javascript - 使用 setTransform 旋转矩形时的莫尔效应
- performance - 慢日志包
- sql - 我应该如何组合多列并转换为行?
- html - 用于活动菜单颜色自定义的 HTML 编码