apache-spark - spark流将数据写入spark-sql,但无法查询
问题描述
我已经提交了一个流应用程序,并将 DataFram 写入 spark-sql。
df.show(5)
df.write.mode(SaveMode.Append).saveAsTable(s"industy.test1")
当我向 kafka 发送一些消息时,日志文件中打印了 df.show(5) 行,这意味着我已经成功使用了数据,但是当我使用 zeppelin 和 spark-sql 交互式命令行查询行业时。 test1,我没有消耗任何数据。并且日志文件没有任何错误,但是当我重新打开 spark-sql 交互式命令行来查询表时,我得到了数据。所以我想知道为什么我需要重新打开它。谢谢你的帮助。
解决方案
推荐阅读
- android - 在有根的 Android 设备中禁用 USB 端口
- angular - 如何区分共享服务与 Angular 6+ 中的其他服务?
- r - 仅在闪亮中显示错误消息一次
- sql - 如何使用条件选择上一个日期
- r - 是否可以将文本中的多个单词过滤到R中的新列中
- swift - 圆形 UICollectionView - 防止在从第一个元素到最后一个元素时刷过所有条目
- javascript - 我只是想知道我在 javascript 中添加 2 个数组的代码出了什么问题
- node.js - if else 不起作用-谁想成为 miliondolare nodeJS
- flutter - Getx控制器使用一次后返回null
- java - 用户定义对象的优先队列