存储,就是根据不同的应用环境通过采取合理、安全、有效的方式将数据保存到某些介质上并能保证有效的访问,总的来讲可以包含两个方面的含义:一方面它是数据临时或长期驻留的物理媒介;另一方面,它是保证数据完整安全存放的方式或行为。...(more)
来自主题:磁带库 · 2020-01-15
zxk458927165中国电信 擅长领域:Db2
3 会员关注
建议你整个关闭NBU进行重启尝试,如果不行,删除对应驱动器,尝试重新添加
浏览1337
回答1
来自主题:分布式存储 · 2020-01-15
荣重实XSKY 擅长领域:分布式存储, nfs, 文件系统
5 会员关注
虚拟化相关业务:分布式块存储,包括私有云架构,传统PtoV的业务居多 非结构化数据:分布式文件和对象存储,更多的往对象转,特别是跟互联网结合紧密的业务场景,ECM较多 备份:各种协议都有支持,也在慢慢向对象存储倾斜,传统备份软件对接或者蓝光分层方案 基本上除了最核心的生产系统,其他...(more)
浏览1764
回答2
来自主题:分布式存储 · 2020-01-14
智诩hanergy 擅长领域:ceph, 分布式存储
10 会员关注
/dev/sdb1 分区删除 清理磁盘:ceph-deploy disk zap ceph2:/dev/sdb 创建 OSD:ceph-deploy osd create ceph2:sdb:/dev/sdd1 结果OSD就回来了: [root@ceph1:~]# ceph-deploy osd create ceph2:sdb:/dev/sdd1c^C [root@ceph1:~]# ceph osd tree # id weight type name ...(more)
浏览1466
回答1
来自主题:分布式存储 · 2020-01-14
智诩hanergy 擅长领域:ceph, 分布式存储
10 会员关注
1)将该 osd 设置为 out [root@ceph1:/home/s1]# ceph osd out osd.1 marked out osd.1. 2)集群做 recovery 2017-06-03 01:54:21.596632 mon.0 [INF] osdmap e90: 4 osds: 4 up, 3 in 2017-06-03 01:54:21.608675 mon.0 [INF] pgmap v565: 256 pgs: 256 active+clean; 1422...(more)
浏览1446
回答1
来自主题:分布式存储 · 2020-01-14
智诩hanergy 擅长领域:ceph, 分布式存储
10 会员关注
原因分析 PG 的分布和 CRUSH ruleset 有关。我的集群当前只有一个默认的 ruleset: [root@ceph1:~]# ceph osd crush rule dump [ { "rule_id": 0, "rule_name": "replicated_ruleset", "ruleset": 0, "type": 1, "min_size": 1, "max_s...(more)
浏览1429
回答1
来自主题:分布式存储 · 2020-01-13
月光满楼南车青岛四方 擅长领域:数据备份, 闪存, 云存储
6 会员关注
原因分析 -> 查看 ceph health detail [root@ceph1]# ceph health detail HEALTH_WARN 88 pgs stuck unclean pg 1.23 is stuck unclean for 337.342290, current state active+remapped, last acting [0,1] pg 0.1f is stuck unclean for 336.838743, current state ...(more)
浏览1268
回答1
来自主题:分布式存储 · 2020-01-13
月光满楼南车青岛四方 擅长领域:数据备份, 闪存, 云存储
6 会员关注
原因分析我的 Ceph 集群的 OSD 的 weight 都是 0!! [root@ceph1]# /etc/ceph# ceph osd tree # id weight type name up/down reweight -1 0 root default -2 0 host ceph1 0 0 osd.0 up 1 2 ...(more)
浏览1314
回答1
来自主题:分布式存储 · 2020-01-13
月光满楼南车青岛四方 擅长领域:数据备份, 闪存, 云存储
6 会员关注
将各个节点上时间进行同步,要不然会出现时间漂移错误,使得mon检测的心跳信息出现问题,解决办法参考NTP服务器时间同步
浏览1314
回答1
来自主题:云平台 · 2020-01-13
宁泽阳中信银行信用卡中心 擅长领域:分布式存储
2 会员关注
云平台一般使用分布式块存储,如果仍使用传统存储,那么云的效果会大打折扣。当前主流云平台(如openstack和k8s)使用分布式存储的方案已经比较成熟,在业界也有大量的使用案例。
浏览600
回答1
来自主题:分布式存储 · 2020-01-13
宁泽阳中信银行信用卡中心 擅长领域:分布式存储
2 会员关注
分布式块存储主要有ceph(包含各厂商基于ceph开发的商业存储)、vsan、华为fusionstorage等。如用于vmware虚拟化,推荐使用vsan,同一个厂商,从产品的适配兼容性以及售后维护均更加方便一点;如果用于IAAS云平台,解决方案一般已经包括了分布式块存储,无特殊原因不建议更换分布式块存...(more)
浏览666
回答1
来自主题:分布式存储 · 2020-01-13
张文正神州数码系统集成服务有限公司 擅长领域:AIX, 故障诊断, hmc
814 会员关注
目前绝大多数企业的数据还是集中式的,如果采用分布式存储也是要根据企业自身情况逐步去改造,是一个逐步的过程
浏览837
回答2
来自主题:docker · 2020-01-10
priestNone 擅长领域:Redis, MySQL, 区块链
12 会员关注
通常可通过以下方式:1、建立软链接2、更改配置文件
浏览867
回答2
来自主题:分布式存储 · 2020-01-09
月光满楼南车青岛四方 擅长领域:数据备份, 闪存, 云存储
6 会员关注
产生此原因的问题为在ceph集群状态还没有达到HEALTH_OK的状态下就执行ceph-deploy mds create node 的操作,解决途径为等ceph状态为HEALTH_OK时在进行。
浏览494
回答1
来自主题:分布式存储 · 2020-01-09
月光满楼南车青岛四方 擅长领域:数据备份, 闪存, 云存储
6 会员关注
错误原因位系统不能找到Client :/etc/ceph/ceph.client.admin.keyring。通常我们执行ceph -s 时,就相当于开启了一个客户端,连接到 Ceph 集群,而这个客户端默认是使用 client.admin 的账户密码登陆连接集群的,所以平时执行的ceph -s 相当于执行了 ceph -s --name client.admin...(more)
浏览498
回答1
来自主题:分布式存储 · 2020-01-09
月光满楼南车青岛四方 擅长领域:数据备份, 闪存, 云存储
6 会员关注
清理环境时候将/ect/ceph/文件夹里边的所有东西都已经清理干净,系统并不能找到合适的位置进行部署。 解决方案:自己手动在/etc/ceph/文件夹下创建osd mds mon等文件夹Sudo mkdir /etc/ceph/osd 其他两个如此。...(more)
浏览495
回答1
来自主题:分布式存储 · 2020-01-09
zhutu龙存科技(北京)股份有限公司 擅长领域:分布式存储, 存储双活, 银行存储双活
66 会员关注
分布式存储实现双活的还是比较少的。一般搭配容灾软件一起实现的多
浏览1006
回答4
来自主题:分布式存储 · 2020-01-09
宁泽阳中信银行信用卡中心 擅长领域:分布式存储
2 会员关注
使用对象存储时可配置多站点对象同步策略,使用文件系统时可将文件进行同步备份,使用块存储时也可将块存储本身当成一个文件进行同步。异地容灾一般为异步复制,使用以上方式基本可满足需求。...(more)
浏览718
回答2
来自主题:超融合 · 2020-01-08
智诩hanergy 擅长领域:ceph, 分布式存储
10 会员关注
vxrail应用装置和VMware软件经过优化和深度集成,以便可以在VMware环境中更高效的部署、配置和管理。其他虚拟机管理程序不受支持,但vxrail应用装置支持客户部署的Microsoft应用程序。
浏览545
回答1
来自主题:超融合 · 2020-01-08
智诩hanergy 擅长领域:ceph, 分布式存储
10 会员关注
可以。vrealize和vcops未包括在vxrail应用装置软件套件中,但该应用装置集成到了所有VMware环境中,包括那些由vrealize和vcops管理的环境。
浏览565
回答1
来自主题:超融合 · 2020-01-08
智诩hanergy 擅长领域:ceph, 分布式存储
10 会员关注
可以使用vxrail manager或使用vsphere中的所有工具来管理群集。但是必须通过vxrail manager用户界面执行初始应用装置构建,附加应用装置横向扩展以及软件升级。
浏览522
回答1