apache-kafka - 在 KTable 的插入/更新时重新处理丰富的 kstream 数据
问题描述
这是我尝试使用 Kafka Streams 实现的假设但类似的场景。
我有流数据、销售数据,我想通过不经常更改的查找数据来丰富这些数据,比如用户和项目,我计划为其创建 KTable。我计划将这些丰富的数据推送到主题并使用连接接收器推送到搜索引擎。
如何确保用户/项目数据的更新也触发对过去销售数据的丰富,而不仅仅是在流中摄取的新数据。据我了解,KTable 插入/更新不会触发对流的过去数据的任何重新处理。
我相信这可能是一个常见的用例,至少我可能不是第一个有这种需求的人。有关解决方案或解决方法的任何指导吗?
解决方案
如果要更新旧数据,则意味着您要进行表-表连接。但请注意,对于这种情况,两个输入的所有数据都需要保存在应用程序中。
推荐阅读
- html - 滚动模态,如位置:绝对,但出现在页面上,如位置:固定
- spring-boot - refreshInterval = "-1" 在 spring-data-elasticsearch 中不起作用
- javascript - VS Code 中的 Javascript 文档含糊不清,是否有插件可以显示更多内容?
- python - 计算 pandas 中每 n 行的平均值并为行分配新标签
- mysql - Apache2 服务器上的 www-data 进程太多,WordPress 网站无法运行
- javascript - 如何获取 ref 属性的值,
- kotlin - 如何对通用 Kotlin 函数的函数参数的参数和返回值施加通用约束?
- python - 如何在另一个嵌套列表中搜索列表元素?
- c# - If 语句帮助多个 and, or 语句
- javascript - 在 Edge 上反应本机 Web 中的 View 上的奇怪填充