scala - spark禁用对引号的支持
问题描述
val dfInput = spark.read
.option("delimiter", "\u0001")
.csv(file)
默认情况下,它正在读取引号(忽略引号之间的分隔符)。我可以添加.option("quote", "\u0000")
一个解决方法,但我正在寻找一个更永久的解决方案,因为这是一个 hacky 修复,不阅读任何引号。支持这样的东西吗?
解决方案
看起来还没有内置任何东西,您可以在此处查看当前功能。
推荐阅读
- html - 我不能让 col-8 与 col-4 并排渲染?
- stata - 将变量从字符串转换为数字
- javascript - 如何遍历非常大的列表并使用它创建高效的 JSON NODEJS
- javascript - 为什么提升结果数组会使递归按预期工作?
- python - 具有不同 x(或 y)范围的不同字符串的轴标签
- git - Git - 不小心提交并推送了数千张图片 - 我如何在没有提交的情况下推送?
- c# - 在 ASP.NET MVC 视图中显示来自 .NET Core API 的图像是否正确?
- php - 在预订计算器中计算不同日期的价格
- spring-boot - Spring Data Rest 仅显示链接但不显示信息
- powerbi - 使用选定月份过滤器中最近一个月的 DAX 月份与去年月份