json - 使用 pyspark 将平面数据帧写入数据块中的 json 时维护列顺序
问题描述
您好必须使用 Databricks 上的 pyspark 将平面 DF 写入 json 文件。数据框具有以下顺序的列:
identifier|plant| customer| product|quantity| deadline|priority
我使用了以下功能:
df.coalesce(1).write.format('json').save('path')
但是我得到的 json 文件有按字母顺序排列的列。
有谁知道如何保持原始的列顺序?
解决方案
推荐阅读
- angular - 在离线模式下运行 Angular6 应用程序
- botframework - Cortana Channel Integration to Bot 调用后进入浏览器
- java - java.lang.IllegalStateException: InputStream 已被读取 - 如果需要多次读取流,请不要使用 InputStreamResource
- javascript - onbeforeunload with window.open is not working
- ios - CloudKit 公共记录和未下载的更改
- sql-server - T-SQL - dynamic parameter in stored procedere
- firebase - Firebase webApp non-fatal error on server start: "functions: Preparing to emulate functions."
- c++ - 使用参数类型的值在尾随返回中需要 decltype
- .net-core - Modelling an existing database in .NET Core 2.x
- google-geocoding-api - Geocoding API Response Stops After 2,500 Requests