使用对象存储,先从自身业务出发,明确要存的数据类型和数据大小范围;海量小文件肯定是主要关注ops,而且要看平均时延,对小文件的性能,开源Ceph的优化肯定是不足的,另外现在的cache tier技术,所有数据都会过cache,很容易就会把cache层冲爆;对于比较大的文件类型,关注throughput就好;对...
不建议使用开源软件,开源软件开发维护需要投入人员较多,而且这种人员不好招聘,一旦离职影响会比较大。存储专业性比较强,有厂商支持会好一些。
这好像有点频道对不上啊, (1)使用nfs,你是在用共享存储,共享存储和分布式存储,是完全不相同的两个事物,结合在一起,好像没有这么做的。(2)ceph是在每台服务器上部署ceph软件,每台服务器所管理的磁盘组合起来,有的磁盘是mds,有的是watch,有的是osd,构成一个大的分布式存储。(3)如果这些服...
1、 分布式存储的网络问题,需要在分布式存储的实施阶段,就提前做好基础网络的规划、硬件规格、部署架构的设计等工作。譬如:在基础网络中,为 分布式存储 规划一个单独的存储平面,在交换机进行交叉高可用设计、分布式存储的X86 服务器规格中配有多张和双口网卡,在OS和产品进行B...
原因分析-> 查看 ceph health detail[root@ceph1]# ceph health detail
HEALTH_WARN 88 pgs stuck unclean
pg 1.23 is stuck unclean for 337.342290, current state active+remapped, last acting [0,1]
pg 0.1f is stuck unclean for 336.838743, current state ac...
都说了osd不存在,创建一个呗/usr/local/bin/ceph osd create
错误原因位系统不能找到Client :/etc/ceph/ceph.client.admin.keyring。通常我们执行ceph -s 时,就相当于开启了一个客户端,连接到 Ceph 集群,而这个客户端默认是使用 client.admin 的账户密码登陆连接集群的,所以平时执行的ceph -s 相当于执行了 ceph -s --name client.admin...
将各个节点上时间进行同步,要不然会出现时间漂移错误,使得mon检测的心跳信息出现问题,解决办法参考NTP服务器时间同步
产生此原因的问题为在ceph集群状态还没有达到HEALTH_OK的状态下就执行ceph-deploy mds create node 的操作,解决途径为等ceph状态为HEALTH_OK时在进行。
阿里云: https://yq.aliyun.com/articles/559261这里是选型的建议:http://vlambda.com/wz_x6mXhhxv3M.html