scala - 将列作为结构数组的 Spark 转储到镶木地板
问题描述
我需要加载一个 csv 文件,该文件具有一个包含结构数组的列,并将其转储到镶木地板格式的另一个位置。我的csv文件有两列,A列和B列。B列的数据类型是array<struct<x: bigint, y:bigint>>
我尝试使用如下模式加载 csv 文件:
val schemaB = ArrayType(StructType(Seq(StructField("x",LongType),StructField("y",LongType))))
val schema = new StructType().add("A",StringType).add("B",schemaB)
spark.read.option("sep", "\t").schema(schema).csv(<location>)
然而,这并没有奏效。我收到以下错误:
org.apache.spark.sql.AnalysisException: CSV data source does not support array<struct<x:bigint,y:bigint>> data type.;</struct<x:bigint,y:bigint>
我什至尝试转换为所需的类型,但这没有用。
这是 B 列外观的示例:
|B |
+---------------------------------------------------------------------------------------------+
|68222:102332,21215:1000,10982:70330,|
|93302:13320,263721:902615,9382:100020,|
解决方案
transform
如果您使用的是最新版本的 spark即 2.4+ ,则可以使用函数
首先读取为字符串,split
通过","
获取列表,然后再次split
通过":"
获取x
和y
val schema = new StructType().add("A",StringType).add("B",StringType)
val df = spark.read.option("delimiter", "\t").schema(schema).csv("path to csv")
val splitExpr = expr("transform(split(B, ','), x -> (split(x, ':')[0] as x, split(x, ':')[1] as y))")
val result = df.select($"A", splitExpr.cast("array<struct<x: long, y:long>>") as "B" )
现在,您可以将其保存在镶木地板中如果您使用的是旧版本的 spark,那么您需要编写一个 udf 最终模式:
root
|-- A: string (nullable = true)
|-- B: array (nullable = true)
| |-- element: struct (containsNull = true)
| | |-- x: long (nullable = true)
| | |-- y: long (nullable = true)
推荐阅读
- json - 使用 Angular 解析内部 json 文件中的 json 数据抛出错误
- angular - 使用单击的对象路由后路由回上一个组件
- python - 如何覆盖模型的保存方法以更改文件字段名称?
- json - 在 Serilog 中,如何在使用 {Properties} 格式说明符时从 JSON 格式的日志消息中删除空括号?
- c# - 从程序中检测服务关闭
- oracle - Count 最大连续透支天数
- substrate - 在 Substrate 中,有没有办法在另一个自定义模块中使用存储和功能?
- c# - 读取当前 Serilog 的配置
- javascript - Vue.js 单元测试 - 如何检查组件是否有方法?
- antlr - antlr string parser rule takes precedent over other rules