apache-kafka - 如果超过特定的字节数,是否可以删除聚合(Kafka 流)?
问题描述
我的目标是将聚合设置null
为超过一定数量的字节(序列化 json)。有什么方法还是保留时间是最终删除聚合的唯一方法?
解决方案
一般来说,这是可能的,但它可能很昂贵。
如果您Aggregator
返回null
,则相应的结果行将被删除。因此,每次Aggregator
调用 your 时,您都可以在自己的代码中序列化结果以检查其大小,null
如果它太大则返回,否则返回新结果。不过,额外的序列化步骤可能很昂贵。
推荐阅读
- python - Matplotlib 将刻度位置与图像像素边界对齐
- firebase - 在 Flutter 中使用 streamBuilder 时条件不起作用
- python - 如何在具有指数和对数函数的 Python 中求解具有一个变量的方程?
- python - 如何向 HashMap 添加键/值?
- python - 将 0 和 1 (float64) 转换为布尔值时将 Null 值转换为 True
- swift - 如何在 Swift 中访问 UIAlertAction 标题属性?
- cypress - 针对多种环境的 CircleCI 并行 Cypress
- javascript - JavaScript: let TypeError: for multi-dimensional array inside if 语句
- java - 如何使用 (Graphics g) 在 JFrame 上显示图像
- apache-kafka - 反序列化没有模式注册表的 kafka 消息