apache-kafka - 汇流槽连接器 - 多少就是太多
问题描述
我想使用 Confluent sink 连接器来更新远程服务器上的 Postgres 数据库。平均每天我们可能有 1000-2000 条消息(更新)。创建数百个接收器连接器以将这些消息复制到所有远程服务器是否“合法”?有这么多接收器连接器是正常的吗?
是否可以告诉接收器连接器“传播”他们的工作,以便不是所有 100 个连接器都会同时将更改推送到远程服务器?应该为此使用“timestamp.delay.interval.ms”吗?
谢谢
解决方案
推荐阅读
- javascript - 检测元素何时位于屏幕顶部
- bootstrap-4 - 在物化或引导框架中宽度 html 按钮的最佳方法是什么?
- react-admin - react-admin 如何创建客户端列表控制器
- sql-server - SSMS 查询 - 插入数据时提示?
- java - 字符串数组大小和用于访问元素的 for 循环
- amazon-web-services - 以编程方式创建 AWS Cognito?
- javascript - React中花括号内的花括号
- javascript - JS 动画表单
- labview - 使用“经过时间”组件的重置后如何获取经过时间?
- python - 将按钮链接到 Flask-Appbuilder 中的页面