amazon-s3 - Confluent S3 连接器说明
问题描述
我们正在使用 confluent 的 s3 连接器将 avro 数据从主题发送到 s3。我们有 3 个代理节点,并且在所有 3 个节点上我们都在运行 confluent s3-connector。在连接器的配置文件中,我们有两个主题和tasks.max=1。我是kafka的新手,我有以下疑问:
- 由于我们总共有三个 s3 连接器,它们如何从每个主题中读取数据(每个主题有 3 个分区和 2 个复制因子)。他们是被认为是三个不同的消费者从同一个主题阅读,还是所有这些消费者都属于一个消费者组并并行读取数据?
- 我们在每个连接器中有两个主题。他们是启动不同的线程以并行读取两个主题的数据,还是顺序消费(一次从一个主题读取)?
解决方案
tasks.max=1
首先,将其设置为总分区数。
复制因子无关紧要。消费者一次只能读取一个分区。
Connect 形成一个消费者组。这是任何 Kafka 消费者客户端的基本设计。它们并行读取,具体取决于您的所有其他属性。
听起来你在跑步,但connect-standalone
不是connect-distributed
如果你有3台机器,显然使用分布式模式
是的,任务和线程在功能上是等效的,不同之处在于任务将重新平衡,而线程在逻辑上仅在一台机器上。
推荐阅读
- javascript - 如何使用 Jest/React 测试 Router.push
- c# - C# ASP.NET RAZOR:双重验证
- javascript - 如何将屏幕分成 2 列并在第 2 列中的 div 匹配第一列的信息?
- xml - DOCX w:t(文本)元素跨越多个 w:r(运行)元素?
- javascript - 如何使用纯 JavaScript 激活级联下拉自动选择
- java - 代理主机名、端口、用户名、带有 httpurl 连接的密码
- c# - EF Core 迁移可能具有破坏性?
- javascript - 交互式网格耦合到 mysqli 表
- python - SQLAlchemy 找不到正确的结果
- html - 组件交互@Input