这个就得使用openstack的region了
最傻瓜的方法,写一个cdrom的xml文件使用virsh 命令挂载在对应的虚拟机上
这个时候就体现出使用官方推荐的kolla-ansible的优势了但是没使用容器化组件怎么办呢?首先,企业的业务和数据永远是第一位的第二,虚拟机做好备份可以先部署好新版本的openstack并测试完成后,将耦合度较弱的虚拟机迁入新版
虚拟机的高可用 虚拟机误删除 可以设置nova 软删除 虚拟机意外死亡,不可恢复的错误 使用ceph的快照特性,回滚至备份时间节点 计算节点down 使用ceph作为openstack后端,保证实例疏散的成功(注意虚拟机的cpu模式)
使用HA+keepalived来做集群的高可用 不过中间会遇到一些问题 vrrp报文被过滤,openstack安全组的原因,需要手动加 同网络的机器ping不通vip,可以使用Allowed-Address-Pairs来解决 nova后端必须使用共享存储来保证实例疏散
由题意可得- 经过nova的过滤器之后,没有任何计算节点符合要求- 谁负责nova的调度呢?- nova-schedule 内置多个过滤器,并可以自己扩展过滤器,包括元数据,安全组,可用域等等过滤器- 有一个retry_filter最重要,举个例子方便大家
注意driver的选择 可以分为热存储和冷存储 热存储使用ceph三副本,可以用来放虚拟机的镜像、系统盘和数据盘(cinder盘),保证数据的强一致性 冷存储可以使用三台服务器做gluster 来存放备份以及视频图片,降低存储成本
注意相关组件的配置文件中中的drivier设置并测试是否达到预期
由于不支持上传md格式,所以我这边直接把我的文档粘贴下来了 CEPH对接openstack完全版 安装packages glance yum install python-rbd nova-compute & cinder-backup & cinder-volume yum instal
使用虚拟机的时候会遇到这种情况: 同一个OpenStack集群的几台虚机如果读写负荷较大,可能会导致其他虚机因为抢占不到后端存储资源而反应卡顿,这个时候需要QoS的配合来限制虚机的IO速率及读写带宽。 资源总是有限的,包括网
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024 talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30