ceph一个osd应该分配多少内存?

一个osd应该分配多少内存?最近在测试ceph集群,发现osd占用的内存随着写入的数据越来越多,占用的内存也越来越多,最终都把系统内存完了。

root     31383 28.2  8.3 2593676 920976 ?      Ssl  Mar01 332:07 /usr/local/hstor/ceph_dir/bin/ceph-osd -i 42 --pid-file /var/run/ceph/osd.42.pid -c /usr/local/hstor/ceph_dir/etc/ceph/ceph.conf --cluster ceph
root     32534 21.2  8.4 2591672 936432 ?      Ssl  Mar01 249:22 /usr/local/hstor/ceph_dir/bin/ceph-osd -i 44 --pid-file /var/run/ceph/osd.44.pid -c /usr/local/hstor/ceph_dir/etc/ceph/ceph.conf --clust

3回答

吕作令吕作令  其它 , XSKY
泊涯zhuhaiqiang去世的闲人等赞同了此回答
现在分配了多少内存出现问题了呢? ceph 集群出现异常比如数据重平衡会大量使用内存, OSD 内存消耗通常与系统中每个守护进程的 PG 数有关。内存问题需要多注意,内存不够会导致 osd 重启,集群异常。 ceph.com 也给出了推荐的 osd 内存配置,可以参考一下建议3-5GB吧 OSDs (ceph-...显示全部

现在分配了多少内存出现问题了呢? ceph 集群出现异常比如数据重平衡会大量使用内存, OSD 内存消耗通常与系统中每个守护进程的 PG 数有关。内存问题需要多注意,内存不够会导致 osd 重启,集群异常。 ceph.com 也给出了推荐的 osd 内存配置,可以参考一下建议3-5GB吧

OSDs (ceph-osd)

By default, OSDs that use the BlueStore backend require 3-5 GB of RAM. You can adjust the amount of memory the OSD consumes with the osd_memory_target configuration option when BlueStore is in use. When using the legacy FileStore backend, the operating system page cache is used for caching data, so no tuning is normally needed, and the OSD memory consumption is generally related to the number of PGs per daemon in the system.

收起
 2019-11-01
浏览2045
冰河_C冰河_C  存储工程师 , 北京东软
按照官网给的建议,每TB数据分配1GB内存较为适中,当然如果内存越大越好,这样对于集群的数据均衡和高并发IO处理上,不会产生性能瓶颈。显示全部

按照官网给的建议,每TB数据分配1GB内存较为适中,当然如果内存越大越好,这样对于集群的数据均衡和高并发IO处理上,不会产生性能瓶颈。

收起
 2019-11-26
浏览1769
GaryyGaryy  系统工程师 , 某保险
元数据服务器和监视器必须可以尽快地提供它们的数据,所以他们应该有足够的内存,至少每进程 1GB 。 OSD 的日常运行不需要那么多内存(如每进程 500MB )差不多了;然而在恢复期间它们占用内存比较大(如每进程每 TB 数据需要约 1GB 内存)。通常内存越多越好。...显示全部

元数据服务器和监视器必须可以尽快地提供它们的数据,所以他们应该有足够的内存,至少每进程 1GB 。 OSD 的日常运行不需要那么多内存(如每进程 500MB )差不多了;然而在恢复期间它们占用内存比较大(如每进程每 TB 数据需要约 1GB 内存)。通常内存越多越好。

收起
 2019-11-25
浏览1788

分布式块存储选型优先顺序调查

发表您的选型观点,参与即得50金币。

问题状态

  • 发布时间:2019-11-01
  • 关注会员:4 人
  • 问题浏览:3762
  • 最近回答:2019-11-26