首页 > 解决方案 > Ceph rbd 写入性能不佳

问题描述

我们有一个由四个节点组成的 ceph 集群,每个节点 48GB 内存,以及 Debian 9.8。集群连接 10Gbe。思科 sg350xg-24t 交换机,英特尔公司以太网控制器 10G X550T 卡。一个内网端口,一个外网端口。对于测试,每个节点只有一个 ssd Intel DC S4600 系列和 BlueStor。创建 rbd 池,位于这些带有复制功能的 ssd 上 3. 在此池中创建映像。映像安装在其中一个节点上。

通过 fio 测试,我在随机写入时获得 600 IOPS,在随机读取时获得 3,600 IOPS。通过 rbd 基准测试,我在随机写入时获得了 6000 IOPS,在随机读取时获得了 15000 IOPS。

你能告诉我这么大的性能差异是从哪里来的吗?

也有带proxmox的节点,在使用Ceph Rbd时,对于虚拟机来说,也有和fio一样的性能。

标签: ceph

解决方案


推荐阅读