ceph - Ceph rbd 写入性能不佳
问题描述
我们有一个由四个节点组成的 ceph 集群,每个节点 48GB 内存,以及 Debian 9.8。集群连接 10Gbe。思科 sg350xg-24t 交换机,英特尔公司以太网控制器 10G X550T 卡。一个内网端口,一个外网端口。对于测试,每个节点只有一个 ssd Intel DC S4600 系列和 BlueStor。创建 rbd 池,位于这些带有复制功能的 ssd 上 3. 在此池中创建映像。映像安装在其中一个节点上。
通过 fio 测试,我在随机写入时获得 600 IOPS,在随机读取时获得 3,600 IOPS。通过 rbd 基准测试,我在随机写入时获得了 6000 IOPS,在随机读取时获得了 15000 IOPS。
你能告诉我这么大的性能差异是从哪里来的吗?
也有带proxmox的节点,在使用Ceph Rbd时,对于虚拟机来说,也有和fio一样的性能。
解决方案
推荐阅读
- javascript - Atuo click 在附加的锚标签上不起作用
- pardot - Pardot 表单处理程序 - 垃圾邮件提交
- android - 为什么Android在更改区域设置时会更改县代码?
- php - 已读/未读新闻
- c# - 在 LINQ 中解构包含 ValueTuple 的容器
- function - Flutter Listview Builder 在单击图标上添加和删除更新数量文本字段
- javascript - webRTC:如何从被叫端更新视频流
- php - 用mysql分两行获取记录
- php - PHP - ZipArchive() 清理权限问题
- c# - 未在视图上显示的特定字段的模型状态错误验证