互联网服务Ceph

ceph osd磁盘空间不一致,导致大磁盘空间使用率极低,如何解决?

ceph集群初始时有9个osd,其中六个0.5T,三个0.9T,使用70%后扩容加入六个osd,都是3.6T,调整过pg及pgp,集群恢复之后,新的数据并不多往大磁盘的osd写,导致前面使用率已经很高的osd很快又濒临写满,导致整个集群空间利用率很低,通过批量调节reweight后,数据并没有明显往后几个大osd迁移,只...显示全部

ceph集群初始时有9个osd,其中六个0.5T,三个0.9T,使用70%后扩容加入六个osd,都是3.6T,调整过pg及pgp,集群恢复之后,新的数据并不多往大磁盘的osd写,导致前面使用率已经很高的osd很快又濒临写满,导致整个集群空间利用率很低,通过批量调节reweight后,数据并没有明显往后几个大osd迁移,只是在前几个小osd来回迁移,并且pg会出现大量misplaced状态,请问如何提高后加入的大osd的空间使用率?多谢!

收起
参与9

查看其它 2 个回答沈天真的回答

沈天真沈天真售前支持IPS

看输出中,pool 的配置信息,为什么3个pool 显示的 Max Avail 都是 1.1 TB 呢 ?3个pool加起来也就是 3.3TB ,3副本是 9.9TB ? 好像和实际的磁盘容量大小不符啊;

硬件生产 · 2021-04-24
浏览2574
倒淌河 邀答

回答者

沈天真
售前支持IPS
擅长领域: 服务器云计算存储

沈天真 最近回答过的问题

回答状态

  • 发布时间:2021-04-24
  • 关注会员:4 人
  • 回答浏览:2574
  • X社区推广