json - 我怎样才能从 kafka 主题接收数据到我的 Streaming Structured DataFrame?
问题描述
我知道如何使用我的 Kafka 主题中的数据,但我无法在正确的列中获取正确的数据。
我以这种格式接收列值中的所有数据:
{"timestamp":"2021-11-09T11:03:48.955+01:00","time":"1","duration":"0","SourceComputer":"C1707","SourcePort":"N1","DestinationComputer":"C925","start/end":" "}
有些字段是空的“”,而其他字段里面有一些数据(例如:“C1707”)。我在想我可以使用这个功能:
DataFrame=DataFrame.withColumn(ColumnName[i],split(DataFrame["value"],',').getItem(i))
但我无法在确切的列中获得确切的数据。
+--------------------+--------------------+----+--------+--------------+----------+-------------------+---------+
| value| timestamp|time|duration|SourceComputer|SourcePort|DestinationComputer|start/end|
+--------------------+--------------------+----+--------+--------------+----------+-------------------+---------+
|{"timestamp":"202...|{"timestamp":"202...|null| null| null| null| null| null|
+--------------------+--------------------+----+--------+--------------+----------+-------------------+---------+
知道如何以正确的方式接收我的数据吗?
谢谢 !
解决方案
使用from_json方法,您可以将 Spark DataFrame 列上的 JSON 字符串转换为结构类型。然后你可以将你的结构类型转换为所需的数据框
import org.apache.spark.sql.functions.from_json
val schema = new StructType()
.add("col1", StringType, true)
.add("col2", StringType, true)
.add("col3", StringType, true)
val df4=df.withColumn("value",from_json(col("value"),schema))
val df5=df4.select(col("value.*"))
请参考这个链接,这里解释了一切。
推荐阅读
- dashdb - Db2 Warehouse: How to load table data using the V2 or V3 REST Interface
- python - Python dtype('O') 。处理对象数据类型。转换为字符串/整数
- apache-nifi - 合并内容处理器未给出预期结果
- javascript - 尝试将占位符添加到 CKeditor 4,但没有任何运气
- python - 如何在 jupyter notebook 中逐行绘制 4000 张图像?
- python - 为什么我要使用 function: 'items' 来处理 Python 中的嵌套字典?
- amazon-web-services - AppSync Resolver 不会为可空数组字段返回空值,但 [null]
- node.js - 简单的 Nodejs MongoDB Express 迭代/循环集合
- javascript - 在叠加层内平滑滚动
- html - Rad 向导控件中的两个验证组