首页 > 解决方案 > 将 Dataframe 转换为具有指定架构的 JSON 数据

问题描述

我从 Dataframe 中选择了一些列,我想将其转换为具有指定模式的 json(Geojson) 数据并将其保存在数据库中我使用 spark sql 2.3.1 我有如下模式:

root
|-- features: array (nullable = true)
| |-- element: struct (containsNull = true)
| | |-- geometry: struct (nullable = true)
| | | |-- coordinates: array (nullable = true)
| | | | |-- element: array (containsNull = true)
| | | | | |-- element: array (containsNull = true)
| | | | | | |-- element: double (containsNull = true)
| | | |-- type: string (nullable = true)
| | |-- properties: struct (nullable = true)
| | | |-- auswertezeit: string (nullable = true)
| | | |-- geschwindigkeit: long (nullable = true)
| | | |-- strecke_id: long (nullable = true)
| | | |-- verkehrsstatus: string (nullable = true)
| | |-- type: string (nullable = true)
|-- type: string (nullable = true)

和新的数据框,我想根据模式将其保存为 json 数据,如下所示:

 val df4 = predictions.select ( "strecke_id", "geschwindigkeit", "predictedLabel").withColumnRenamed("predictedLabel", "verkehrsstatus")

标签: jsonapache-spark-sqlgeojson

解决方案


推荐阅读