scala - 无法使用 spark writestream 将 json 文件写入 hdfs
问题描述
我正在向 apache spark 发送 json 消息,我可以在控制台中写入流。但我不能用hdfs写它。
火花版本:2.3.0
我正在使用 spark-shell ./spark-shell --packages org.apache.spark:spark-sql-kafka-0-10_2.11:2.3.0
import org.apache.spark.sql.SparkSession
val df = spark.readStream.format("kafka").option("kafka.bootstrap.servers", "IP:9092").option("subscribe", "test").load()
df.selectExpr("CAST(key AS STRING)", "CAST(value AS STRING)").writeStream.queryName("test").outputMode("append").format("json").option("path","file:/node1:8020/test/").option("checkpointLocation", "file:/node1:8020/test/").start().awaitTermination()
我在终端屏幕上看不到任何错误。但我在文件夹文件中看不到任何内容:/node1:8020/test/。我真的为此花费了太多时间,请任何帮助都可以。
谢谢
解决方案
推荐阅读
- vba - SAP 列 ID 到数组
- python - 无法解码嗅探的输出
- tsql - SQL Server 中每一行的插入触发器之前的 Oracle 等效项
- javascript - 通过自动缩放到展开的节点来管理大型分层数据(可折叠树)
- mysql - 将一个表中的列值替换到另一个表中而不添加另一列
- php - Laravel 8 验证器因 POST API 上的嵌套 JSON 请求而失败
- kotlin - 将 List 转换为 MutableList Kotlin 会出错
- python - 在 AWS Lambda 函数中使用 python 运行 ffmpeg 命令的问题
- unity3d - 在 VR 中单击 inputField 时打开键盘(Oculus Quest 2 和 XRIT)
- bluespec - 关于附带条件的澄清