elasticsearch - 将旧数据从 Elasticsearch 归档到 Google Cloud Storage
问题描述
我在Google Compute Instance中安装了一个elasticsearch服务器。每分钟都会摄取大量数据,并且下划线磁盘很快就会填满。
我知道我们可以增加磁盘的大小,但这对于存储长期数据会花费很多。
我们需要将 Elasticsearch 服务器(计算引擎磁盘)中 90 天的数据和超过 90 天(直到 7 年)的数据存储在 Google Cloud Storage Buckets 中。较早的数据应该可以检索,以备日后分析时使用。
我知道的一种方法是经常拍摄快照并使用Curator从 Elasticsearch 服务器中删除超过 90 天的索引。这样我可以保持磁盘空闲并最大限度地降低存储成本。
有没有其他方法可以在不手动自动化上述想法的情况下做到这一点?
例如,由 Elasticsearch 提供的开箱即用的东西,它会将超过 90 天的数据存档并将数据文件保存在磁盘中,然后我们可以手动将这个文件从磁盘移动到Google Cloud Storage中。
解决方案
推荐阅读
- java - Java 正则表达式不区分大小写与德语变音符号
- javascript - 获取打字稿中滑块的值
- azure-cognitive-search - 如何更新多对多模型的文档
- time - 这个时间格式是什么?(10 位,5 位小数)
- kotlin - 我的图像背景颜色出现致命的表达错误
- java - Room - 数据库在删除查询后被锁定
- python - python django 创建自己的命令并添加列表作为参数
- javascript - 简单的 Javascript 数组对象计数值
- ansible - 既找不到 ~/.ansible.cfg 也找不到 etc/ansible
- javascript - TypeError:在对象范围中找不到函数 setvalue