elasticsearch - 当所有分片约为 30GB 时,如何对 Elastic“大分片大小”警报进行故障排除?
问题描述
背景:我有一个简单的(2 节点)弹性云部署,有 3 个主要索引,用于保存我的大部分数据以进行索引和搜索。这些索引中最大的是 ~250GB(我们称之为example-index
),采用 4/1 分片方案产生 8 个分片。如果索引分片超过推荐的 50GB 大小,我设置了一个简单的监控警报来触发。
问题:在我的集群监控中,我看到了一个large shard size
警报。警报设置为每 12 小时通知一次,但每分钟检查一次。它还声称被识别为太大的分片约为 133GB,并且来自example-index
. 实际的警报是这样的:
The following index: example-index has a large shard size of: 132.99GB at April 15, 2021 11:51 AM EDT
故障排除完成:使用开发工具,我手动cat
对索引分片运行查询,并确认每个分片都徘徊在 30GB 左右。查询中列出的任何分片都没有example-index
返回高于 31GB 的分片——完全在合理的容差范围内。
问题:粗略,标题。我该如何解决这种类型的警报?我没有看到或发现此警报是否有任何潜在的潜在原因?或者这只是一个错误?
解决方案
推荐阅读
- http - 中间件在 Go 中的 chi 路由中是如何工作的,http.Handler 参数在中间件中指的是什么?
- android - 溢出按钮颜色不变/溢出按钮不可见
- python - 如何检测一个在大约 5 天后崩溃而没有日志条目的 python 进程
- android - 安卓地图盒
- java - JDBC oracle 存储过程,处理嵌套对象?
- python - Python:在输入之前清除键盘模块按下的键
- python - Xarray 中的每日气候学与闰年占
- http - 发送转义字符串(如“&#”)时得到 HTTP 响应代码 400
- python - 完成某事后如何关闭消息框
- xml - 【需要帮助】XML错误:文档末尾有多余的内容