indexing - 如何配置 Druid 索引槽容量?
问题描述
默认情况下,在独立机器上运行 druid 时有 2 个索引槽容量。
如果您有超过 2 个要索引的 kafka 数据源,则始终有 2 个正在运行的任务,并且仍然处于待处理任务状态。
我的问题是如何扩大德鲁伊索引槽容量,以便它可以并行运行更多任务?谢谢!
解决方案
您可以通过更新中间管理器 runtime.properties 中的以下属性来更改任务数。
# Number of tasks per middleManager
druid.worker.capacity=2
但请记住,您也需要更新系统资源分配,例如。如果您的系统只有 2 个处理器,那么它将无法工作。
推荐阅读
- c# - 按项目的子部分对字符串列表进行分组
- r - 将 R 中的行与除一个重复值外的所有行合并
- c++ - 在 C++ 中使用梯形规则进行复杂函数集成
- apache-spark - 内置 Spark 转换是否比 Spark SQL 查询更快?
- salesforce - 全渠道 - 工作项将如何完成
- laravel - Laravel 8 在 PWA 中重置密码
- python - 如何重新定位 Maya UI 窗口元素?
- jquery - AWS CORS 没有“访问控制允许来源”错误
- sql - 通过 SQL Query 获取具有非表列(由自己的名称创建)名称的表
- laravel - 在 laravel8 中播种后的空表?