server - 在多个服务器之间拆分传入流量?
问题描述
我目前有一个用于客户项目的服务器(480GB 存储和 400mb 带宽),当我们每周使用 Nginx 服务器进行 hls 视频流传输一到两次时,我们很快就会耗尽存储空间和带宽。
我们已经考虑升级到 2 台 2TB 和 1GB 带宽的服务器(有点面向未来),以便能够存储所有数据,并开始补偿故障流。
由于我不是系统管理员,所以我对负载平衡以及数据库和存储的正确程序知之甚少,我是否将一台服务器的内容克隆到另一台服务器并拆分流量?我是否将一个专用于数据库,另一个用于存储?
任何帮助,关于使用哪些服务来分割流量和任何最佳实践将不胜感激
解决方案
理想情况下,您将从 CDN 分发视频流。这样,扩展的唯一实际限制就是成本。客户端将能够直接从它们附近的节点流式传输,而无需直接或经常访问您的源服务器。CDN 将缓存 HLS 段。
至少,我肯定会将您的应用程序服务器与您的视频服务分开。它们具有不同类型的负载,因此您会通过提供过多的 CPU 来托管视频或过多的带宽来托管 API 来浪费金钱。拆分它们,您可以根据需要独立扩展。
推荐阅读
- java - 如何更改 KafkaStream 的日志级别
- python - 不断得到“只有长度为 1 的数组可以转换为 python 标量”
- javascript - 在 Kendo 编辑器中解码 HTML 实体而不会丢失样式和颜色
- reactjs - 需要帮助将游戏保存到用户喜爱的游戏
- python - 将 pyodbc.Row 转换为列表或元组
- r - 用误差条绘制线性回归分析的可变性
- html - 在 Django 模板中嵌入 seaborn 生成的绘图图像
- testing - 我在哪里可以看到 Testcafe Studio 控制台日志错误?
- django - jquery-ui中使用的图像应该如何在django admin中加载?
- r - 根据 2 列上的条件标记行