mongodb - 我应该为大容量的高写入创建一个全新的实例吗?
问题描述
我目前有一个收集实时传感器数据的集合,所以每个传感器每 5-10 秒接收一个值,我有大约 50 个传感器。我还收集了用户数据等。目前,我insertMany
每 1000 个文档批量更新我的传感器数据。但是,它仍然是影响其他集合中常规查找的数据库的瓶颈。我的读取延迟超出了屋顶。我正在考虑的一个选项是创建一个仅用于摄取传感器数据的新实例,这样它就不会影响用户数据速度。这是正确的方向吗?
解决方案
推荐阅读
- node.js - 通过 SmartAdmin 项目调试 Gulp Build 失败
- c# - 无法通过 C# 启动服务
- android - 可以在房间数据库迁移的单个语句中添加多个新列吗?
- django - 如何实现删除查询的搜索栏按钮?Django环境)
- algorithm - 分配任务的动态规划算法
- c# - GeckoFX45 如何缩小浏览器?
- javascript - 每次用户滚动回顶部时如何更改顶部图像
- html - 使用边框底部在 Span 中选择文本时文本选择跳跃
- bazel - 从 bazel 的存档中提取 deb 文件
- google-cloud-platform - GCP:通过 gcloud 命令列出但未描述的实例