apache-spark - 如果多列在使用sparksql 1.6v之间包含多个逗号,如何加载csv文件
问题描述
如果多个列之间包含多个逗号,如何使用 sparksql 1.6v 加载 csv 文件,例如给定的 csv 文件包含一些类似于下面的记录。
col1, col2, col3, col4, col5
abc, xyz, pqr, p,q, qq pr,tt
现在col1
应该包含abc
col2 xyz, pqr
col3 p,q
col4 qq pr
col5 tt
在使用 spark 1.6v 的 spark 数据框中。
解决方案
推荐阅读
- asp.net-core - Core Razor Pages - Id 未在模态包装的表单上发布
- json - JSON 数组作为 TableView 中的对象
- php - 使用 PHP 仅获取 mysql 查询的最后一行
- kotlin - 使用 Retrofit2 在 Recyclerview 中未设置 Gson 转换的数据
- r - 计算两个日期时间之间 15 分钟的序列出现
- r - 将 PCR 96 孔板转换为单列格式
- sql - 如何更改存储在 Postgres 中的 JSON 对象中所有记录的键名
- loops - Applescript:循环中的文本定界
- javascript - 从 Firebase 获取图片网址
- julia - ```@time``` 范围内的 UndefVarError 错误