apache-flink - Apacheflink 的 DataStream API 如何支持事件的批处理
问题描述
我的生产者是 apache Kafka,我们想监听一批事件来处理它们并将处理后的事件写入数据库。如果我使用流/批处理,每个事件都会对 DB 进行一次查询。我不想将每个事件都作为一个查询来处理。如何批量处理一些事件并将这些批量数据写入数据库?
注意:我们使用的是 DataStream API
解决方案
不,Flink 没有官方的 Neo4j 接收器。如果您的目标是通过缓冲、批量事务更新来实现端到端的精确一次,您可以从阅读Apache Flink 中端到端精确一次处理的概述开始,然后联系 flink 用户邮件列表以获得进一步的指导。
推荐阅读
- r - 在 data.table 中复制 dplyr `any_of()` 功能
- node.js - 创建和导入手写类型定义的私有包
- maven - 我在尝试运行 shopizer-inventory-xml 时出错
- javascript - 如何将属性传递给jquery自动完成
- emacs - 我第一次下载 doom emacs 时,doom doctor 命令出错。我应该怎么办?
- go - Go GRPC 客户端断开连接终止 Go 服务器
- javascript - Discord.js如果大写字母过多,如何删除消息
- konvajs - React Konva - 撤销自由画线
- javascript - message.content 不是函数
- r - 如何通过矩阵列表迭代函数