scala - 从 spark scala 中的数据集创建 json 文件
问题描述
我有以下数据集:
+------+-----------+-------+----------+
|userID| A |B | C |
+------+-----------+-------+----------+
|1 |242.0 |NULL |7 |
|2 |NULL |3.0 |5.0 |
|3 |NULL |70.0 |17.0 |
我想将其转换为以下 json 格式:
"result":
[
{"userID": 1, "A": 242.0, "B": NULL, "C": 7 },
{"userID": 2, "A": NULL, "B": 3.0, "C": 5.0 },
{"userID": 3, "A": NULL, "B": 70.0, "C": 17.0 },
]
我很感激这方面的帮助。
解决方案
myDataset.write.json("/tmp/my_dir/")
推荐阅读
- gcc - Is it necessary to initialize all the used registers in inline assembly?
- webpack - 如何使用 Webpack 包含包许可信息?
- string - 类型错误:'在
' 需要字符串作为左操作数,而不是浮点数 - python - GridSearchCV 的 PredefinedSplit 无法正常工作
- swift - NSBrowser 快速拖放
- java - GraphQL,如何返回字节[]的类型
- powershell - 为什么在添加 powershell 字符串和数组时操作数的顺序很重要?
- spring-boot - 将 Spring Boot 属性注入 Kotlin Singleton / object
- php - Wordpress Rest:ACF 到 REST API 过滤器致命错误
- java - 从 unwrapped() 获得的 java ArrayList 转换为 Scala 列表