apache-kafka - Kafka 可变事件有效负载大小
问题描述
我正在尝试找出最佳事件大小以生成到 Kafka 中。我可能有 1KB 到 20KB 的事件,我想知道这是否会成为问题。
我可以对生产者进行一些更改,使它们的大小大致相似,比如 1KB-3KB。这是一个优势还是 Kafka 对可变事件大小没有问题?
Kafka 是否有最佳事件大小,还是取决于配置的 Segment 设置?
谢谢。
解决方案
默认情况下,Kafka 最多支持 1MB 消息,并且可以将其更改为更大,当然会因增大而牺牲网络 IO 和延迟。
话虽如此,我认为消息的大小是否与您所谈论的数据大小一致并不重要。
如果您真的想压缩您的有效负载,您可以查看Kafka API 中提供的不同序列化框架和压缩算法。
推荐阅读
- javascript - Laravel websocket 不会从 vue 前端触发事件
- c - 在代码中使用相同的数字相乘和相除
- c - MinGW 在 NetBeans 中看不到库
- regex - 如何使用正则表达式识别字符串中的十进制值
- reactjs - React 中的函数调用和组件调用有何不同?
- swiftui - 在 SwiftUI 上使用 clipShape 和 Circle 时滞后
- angular - 如何通过按钮在同一个角度组件中显示一个或另一个列表?
- python - 没有为两个不同的网址更新scrapy response.text
- java - 列表的数组?
- python - numpy数组的高效for循环