apache-kafka - Kafka将打开文件的数量减少为超过1000000
问题描述
我有一个 kafka 每分钟从某些事件中接收 1gb 的数据,因此打开的文件数量超过 1000000。我不确定需要更改哪个设置来减少这个数量。任何人都可以指导什么可以快速解决?我应该将 log.segment.bytes=1073741824 增加到 10 GB 以减少创建文件的数量,还是将 log.retention.check.interval.ms=300000 增加到 15 分钟,从而减少检查删除
解决方案
增加段的大小将减少代理维护的文件数量,权衡是只有关闭的段才会被清理或压缩。
另一种选择是重新考虑您正在使用的数据类型。例如,如果发送文件或其他大型二进制 blob,请考虑使用文件系统 URI,而不是通过主题推送整个数据
推荐阅读
- android - 适用于 android 的 Visual Studio 模拟器不支持
- spring-boot - 如何使用 Spring Boot 的应用程序日志(由 slf4j 生成)丰富 Jaeger opentracing 数据?
- python - 很难让装饰器在 python 的类中工作
- oracle - 创建返回特定输入上方行的 sql 函数
- reactjs - React Router v3 onLeave 钩子如何防止转换到下一个路由?
- jenkins - 如何使用ant将参数传递给jmeter?
- javascript - 使用jquery替换类后如何添加类
- php - 如何使 atom-beautify 与 php 文件中的 html 一起工作?
- linux - 发现:使用 ssh 的 -exec 缺少参数
- git-flow - SNAPSHOT 版本应该出现在哪些分支中?