首页 > 解决方案 > 我想在 Apache Flink 中做流媒体工作来做 Kafka -> Flink -> HIVE

问题描述

我想在 Apache Flink 中进行流式处理以在 Apache Flink(Scala)中执行 Kafka -> Flink -> HIVE。任何人都可以提供代码示例,因为他们的官方文档不是很清楚理解。

这应该是流式处理。

标签: apache-kafkahiveapache-flinkflink-streaming

解决方案


如需帮助开始使用 Table API,您可以参考使用 Table API 进行实时报告的教程。它是用 Java 编写的,但 Scala API 并没有太大的不同。

是一个使用 SQL 从 Kafka 读取并写入 Hive 的示例。要在 Scala 中执行相同操作,您可以使用 包装 SQL 语句tableEnv.executeSql(...),如

tableEnv.executeSql("CREATE TABLE Orders (`user` BIGINT, product STRING, amount INT) WITH (...)")

或者

val tableResult1 = tEnv.executeSql("INSERT INTO ...")

如果您需要进行多次插入,那么您需要使用StatementSet. 有关详细信息,请参阅下面链接的文档。

请参阅运行 CREATE 语句运行 INSERT 语句Apache Kafka SQL 连接器写入 Hive

如果您遇到困难,请向我们展示您尝试了什么以及它是如何失败的。


推荐阅读