kvm虚拟机在线迁移 详解基于本地存储的kvm虚拟机在线迁移
桦仔 人气:0kvm虚拟机迁移分为4种
(1)热迁移基于共享存储
(2)热迁移基于本地存储
(3)冷迁移基于共享存储
(4)冷迁移基于本地存储
这里介绍的是基于本地存储的热迁移
动态块迁移版本要求
qemu版本要求 大于或等于0.12.1(centos6.7或以上都没问题)
rpm -qa|grep qemu qemu-kvm-0.12.1.2-2.491.el6_8.1.x86_64 qemu-kvm-tools-0.12.1.2-2.491.el6_8.1.x86_64
目标宿主机:192.168.1.24 机器名:CQ-KVM01
源宿主机:192.168.1.26 机器名:CQ-KVM02
迁移使用tcp认证方式
kvm虚拟机名称,是一台跑nginx的虚拟机:CQ-NGINX01
1、配置libvirtd服务 源宿主机和目标宿主机都要执行
vi /etc/libvirt/libvirtd.conf listen_tls = 0 listen_tcp = 1 tcp_port = "16509" listen_addr = "0.0.0.0" auth_tcp = "none" mdns_adv = 0
解释
- listen_tls:关闭tls,默认是开启的
- listen_tcp :开启tcp认证
- tcp_port:tcp端口配置,默认端口是16509
- auth_tcp:配置是否开启口令认证,默认不开启
- mdns_adv:是否开启mdns组播,默认关闭
sed -i 's/^#listen_tls = 0/listen_tls = 0/' /etc/libvirt/libvirtd.conf sed -i 's/^#listen_tcp = 1/listen_tcp = 1/' /etc/libvirt/libvirtd.conf sed -i 's/^#tcp_port = \"16509\"/tcp_port = \"16509\"/' /etc/libvirt/libvirtd.conf sed -i 's/^#listen_addr = \"192.168.0.1\"/listen_addr = \"0.0.0.0\"/' /etc/libvirt/libvirtd.conf sed -i 's/^#auth_tcp = \"sasl\"/auth_tcp = \"none\"/' /etc/libvirt/libvirtd.conf sed -i 's/^#mdns_adv = 1/mdns_adv = 0/' /etc/libvirt/libvirtd.conf
cat libvirtd.conf |grep -iE "listen_tls" cat libvirtd.conf |grep -iE "listen_tcp" cat libvirtd.conf |grep -iE "tcp_port" cat libvirtd.conf |grep -iE "listen_addr" cat libvirtd.conf |grep -iE "auth_tcp" cat libvirtd.conf |grep -iE "mdns_adv"
2、配置libvirtd监听方式,无论是tcp,ssh,tls认证方式都需要配置 , 源宿主机和目标宿主机都要执行
vi /etc/sysconfig/libvirtd LIBVIRTD_ARGS="--listen"
3、编辑/etc/libvirt/qemu.conf文件 源宿主机和目标宿主机都要执行
vi /etc/libvirt/qemu.conf vnc_listen = "0.0.0.0"
解释
- vnc_listen:使虚拟机带外VNC默认监听.0.0.0.0
4、重启libvirtd服务,使配置生效, 源宿主机和目标宿主机都要执行
/etc/init.d/libvirtd restart
5、检查端口和进程,libvirtd是否监听16509端口, 源宿主机和目标宿主机都要执行
netstat -lntp | grep libvirtd
tcp 0 0 0.0.0.0:16509 0.0.0.0:* LISTEN 48825/libvirtd
修改iptables脚本,放行16509端口和49152端口
#ACCESS kvm iptables -A INPUT -m state --state NEW -m tcp -p tcp --dport 5900:5909 -j ACCEPT iptables -A INPUT -p tcp --dport 16509 -j ACCEPT iptables -A INPUT -p tcp --dport 49152 -j ACCEPT
6、在源宿主机和目标宿主机加上IP和主机的解析
#24机器上 echo "192.168.1.26 CQ-KVM02" >> /etc/hosts #26机器上 echo "192.168.1.24 CQ-KVM01" >> /etc/hosts
7、在源宿主机连接目标宿主机的libvirtd并查看虚拟机信息
virsh -c qemu+tcp://root@192.168.1.26:16509/system virsh -c qemu+tcp://root@192.168.1.24:16509/system
8、在目标宿主机创建同样大小的镜像文件,路径、名称也要一样
要加上preallocation=metadata,否则使用virt-install命令安装完成后虚拟机磁盘镜像会变为raw格式
qemu-img create -f qcow2 -o preallocation=metadata /data/kvmimg/CQ-NGINX01.qcow2 100G
9、迁移 ,192.168.1.26为目标宿主机的内网IP,tcp认证方式,迁移时间有点长需要开一个screen窗口,不需要cd 到镜像文件所在目录
screen -S migratekvm virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01 qemu+tcp://root@192.168.1.26:16509/system
10、在目标宿主机执行,会显示paused状态 即是suspended状态
watch virsh list --all
11、在目标宿主机执行,显示迁移进度
tailf /var/log/libvirt/qemu/CQ-NGINX01.log
12、在目标宿主机执行,镜像文件目录为/data/kvmimg/,显示虚拟机镜像的大小,会看到虚拟机镜像会不断增大表示数据已经在迁移过来
注意创建镜像文件的时候要使用preallocation=metadata
cd /data/kvmimg/ watch du -h *
13、虚拟机迁移完成后,源宿主机为关机状态,目标宿主机变为running状态
virsh list --all #源宿主机 virsh list --all #目标宿主机
14、源宿主机删除xml配置文件
virsh destroy CQ-NGINX01 virsh undefine CQ-NGINX01
注意:
迁移过程中ping会有卡顿,有时会丢几个包,如果虚拟机中有部署数据库,应用程序最好有重连机制
回迁方法
建议不要删除源宿主机上的镜像文件,保留镜像文件
#在目标宿主机上执行 ,回迁到源宿主机
virsh dumpxml CQ-NGINX01 >~/CQ-NGINX01.xml virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01 qemu+tcp://root@192.168.1.24:16509/system
注意:
源宿主机和目标宿主机最好要保持硬件一致 ,这样迁移和回迁出问题的几率才能降到最低!
迁移速度和成功率和网络有很大关系,宿主机的网络尽量是万兆或千兆多网卡绑定,可以提高迁移速度和成功率
#限制迁移速度 为600M/s virsh migrate-setspeed CQ-NGINX01 600
--------------------------------------------------------------------------------
在线迁移问题汇总
(如果ssh的端口不是默认22,可以写为 qemu+ssh://target:port/system)
Question 1:
error: internal error hostname on destination resolved to localhost, but migration requires an FQDN
解决办法很简单,因为默认情况下hostname 是 localhost,我们需要把目标的hostname修改一下,临时的也可以。
#hostname target
Question 2:
error: internal error Attempt to migrate guest to the same host 00020003-0004-0005-0006-000700080009
这个在mail list 中有大牛说是服务器提供商的问题,你可以用#dmidecode -s system-uuid 查看一下这个ID,理论上是#virsh sysinfo | grep uuid 及# virsh capabilities | grep uuid
这三个ID是一样的。(之前看论坛里发的解决方法是需要下载一个dmidecode 命令的文件去替换系统的,达到修改的目的,不过我只是修改了libvirt的配置文件就可以了,可能是版本的问题)
我们修改一下libvirtd的配置文件
#sed -i "/#host_uuid/ahost_uuid = \"`uuidgen`\"" /etc/libvirt/libvirtd.conf
重启一下libvirtd 服务
# /etc/init.d/libvirtd restart
然后再查看一下
# virsh capabilities | grep uuid
Question 3:
error: unable to set user and group to '107:107' on '/image/vmtest/disk.img': No such file or directory
如果顺利进入到这步的话,就很简单了,没有directory 直接创建一个就可以,没有disk.img 直接create一个
注:创建的磁盘应该和源虚拟机的磁盘是一样的大小(更大应该是可以)和格式(raw还是qcow2)
qemu-img create /image/vmtest/disk.img +sizeG
Question 4:
error: Unable to resolve address 'target' service '49155': Name or service not known
《《Name or service not known》》在/etc/hosts 添加解析的ip和target的域名即可
Question 5:
virsh migrate --live --copy-storage-all --unsafe --persistent CQ-NGINX01 qemu+tcp://root@192.168.1.24:16509/system
error: Unable to read from monitor: Connection reset by peer
可能目标宿主机和源宿主机内存不够
建议:目标宿主机和源宿主机上都关闭一些不必要的虚拟机把内存腾出来
也可以清空cache把内存腾出来
#清除cache 首先执行sync命令
sync echo 3 > /proc/sys/vm/drop_caches
加载全部内容