总结自用

1.虚拟化技术概述

虚拟化[Virtualization]技术最早出现在20世纪60年代的IBM大型机系统,在70年代的System 370系列中逐渐流行起来,这些机器通过一种叫虚拟机监控器[Virtual Machine Monitor,VMM]的程序在物理硬件之上生成许多可以运行独立操作系统软件的虚拟机[Virtual Machine]实例。随着近年多核系统、集群、网格甚至云计算的广泛部署,虚拟化技术在商业应用上的优势日益体现,不仅降低了IT成本,而且还增强了系统安全性和可靠性,虚拟化的概念也逐渐深入到人们日常的工作与生活中。
虚拟化是一个广义的术语,对于不同的人来说可能意味着不同的东西,这要取决他们所处的环境。在计算机科学领域中,虚拟化代表着对计算资源的抽象,而不仅仅局限于虚拟机的概念。例如对物理内存的抽象,产生了虚拟内存技术,使得应用程序认为其自身拥有连续可用的地址空间[Address Space],而实际上,应用程序的代码和数据可能是被分隔成多个碎片页或段,甚至被交换到磁盘、闪存等外部存储器上,即使物理内存不足,应用程序也能顺利执行。

2.为什么要用虚拟化?

虚拟化是一种技术,它允许单个物理机器(如服务器、计算机或存储设备)被分割成多个独立的虚拟机,每个虚拟机都可以运行不同的操作系统和应用程序,就像它们是独立的物理设备一样。虚拟化带来了许多好处,包括但不限于以下几点:

  • 1.资源利用率提高:通过在单个物理服务器上运行多个虚拟机,可以更高效地利用硬件资源,减少服务器的空闲时间。
  • 2.成本节约:减少对物理硬件的需求,从而降低购买和维护成本。
  • 3.灵活性和可扩展性:虚拟机可以根据需要快速创建、删除或重新配置,使得资源分配更加灵活。
  • 4.隔离性:每个虚拟机都是独立的环境,一个虚拟机的故障或安全问题不会直接影响到其他虚拟机。
  • 5.易于管理和维护:虚拟机可以像管理文件一样进行备份、复制和迁移,简化了系统管理。
  • 6.提高安全性:可以在虚拟机中测试和隔离不受信任的应用程序,减少对主系统的风险。
  • 7.灾难恢复和业务连续性:虚拟机可以快速备份和迁移,有助于在发生故障时快速恢复服务。
  • 8.开发和测试环境:可以快速创建一致的开发和测试环境,无需担心影响到生产环境。
  • 9.环境一致性:确保开发、测试和生产环境之间的一致性,减少因环境差异导致的问题。
  • 10.云兼容性:虚拟化技术与云计算紧密结合,使得应用程序和资源可以更容易地迁移到云平台。
  • 11.能源效率:通过减少物理服务器的数量,可以降低数据中心的能源消耗。

虚拟化技术的应用非常广泛,从服务器虚拟化、桌面虚拟化到网络虚拟化等,它为现代IT基础设施提供了灵活性和效率。

3.主流虚拟化方案

3.1虚拟化技术主要分类
  • 平台虚拟化(platform virtualization):针对计算机和操作系统的虚拟化。
  • 资源虚拟化(resource virtualization):针对特定的系统资源的虚拟化,比如内存、存储、网络资源等。
  • 应用程序虚拟化(application virtualization):包括仿真、模拟、解释技术等。
3.2平台虚拟化技术分类

我们通常所说的虚拟化主要是指平台虚拟化技术,通过使用控制程序(Control Program,也被称为 VirtualMachine Monitor 或 Hypervisor),隐藏特定计算平台的实际物理特性,为用户提供抽象的、统一的、模拟的计算环境(称为虚拟机)。虚拟机中运行的操作系统被称为客户机操作系统(GuestOs),运行虚拟机监控器的操作系统被称为主机操作系统(Host OS),当然某些虚拟机监控器可以脱离操作系统直接运行在硬件之上(如VMWARE的ESX产品)。运行虚拟机的真实系统我们称之为主机系统。

  • 操作系统级虚拟化(operating system level virtualization)
    在传统操作系统中,所有用户的进程本质上是在同一个操作系统的实例中运行,因此内核或应用程序的缺陷可能影响到其它进程。操作系统级虚拟化是一种在服务器操作系统中使用的轻量级的虚拟化技术,内核通过创建多个虚拟的操作系统实例(内核和库)来隔离不同的进程,不同实例中的进程完全不了解对方的存在。

比较著名的有Solaris Container,FreeBsD Jail 和 OpenVz 等。

比如OPENVZ:这个平台是最便宜的VPS平台,在各个ps商哪里都是价格最低的。OPENVZ本身运行在linux之上,它通过自己的虚拟化技术把一个服务器虚拟化成多个可以分别安装操作系统的实例,这样的每个实体就是一个VPS,从客户的角度来看这就是一个虚拟的服务器,可以等同看做一台独立的服务器。

OPENVZ虚拟化出来的VPS只能安装linux操作系统,不能安装windows系统,比如Centos、Fedora、Gentoo、Debian等。不能安装windows操作系统是openvz的第一个缺点,需要使用windows平台的用户不能使用OPENVZVPS。

OPENVZ的第二个缺点是OPENVZ不是完全的虚拟化,每个VPS账户共用母机内核,不能单独修改内核。好在绝大多少用户根本不需要修改内核,所以这个缺点对多数人可以忽略不计。而这一点也正是openvz的优点,这一共用内核特性使得openvz的效率最高,超过KVM、Xen、VMware等平台。在不超售的情况下,openvz是最快速效率最高的VPS平台。

  • 部分虚拟化(partial virtualization)
    VMM 只模拟部分底层硬件,因此客户机操作系统不做修改是无法在虚拟机中运行的,其它程序可能也需要进行修改。在历史上,部分虚拟化是通往全虚拟化道路上的重要里程碑,最早出现在第一代的分时系统 CTSS 和 IBM M44/44X 实验性的分页系统中。

  • 全虚拟化(full virtualization)
    全虚拟化是指虚拟机模拟了完整的底层硬件,包括处理器、物理内存、时钟、外设等,使得为原始硬件设计的操作系统或其它系统软件完全不做任何修改就可以在虚拟机中运行。

操作系统与真实硬件之间的交互可以看成是通过一个预先规定的硬件接口进行的。全虚拟化 VMM 以完整模拟硬件的方式提供全部接口(同时还必须模拟特权指令的执行过程)。举例而言,x86体系结构中,对于操作系统切换进程页表的操作,真实硬件通过提供一个特权CR3寄存器来实现该接口,操作系统只需执行"mov pgtable,%%cr3"汇编指令即可。

全虚拟化 VMM 必须完整地模拟该接口执行的全过程。如果硬件不提供虚拟化的特殊支持,那么这个模拟过程将会十分复杂:一般而言,VMM 必须运行在最高优先级来完全控制主机系统,而GuestOS需要降级运行,从而不能执行特权操作。当 Guest OS执行前面的特权汇编指令时,主机系统产生异常(GeneralProtection Exception),执行控制权重新从 GuestOS 转到 VMM 手中。VMM 事先分配一个变量作为影子CR3 寄存器给 Guest OS,将 pgtable 代表的客户机物理地址(Guest Physical Address)填入影子 CR3 寄存器,然后VMM 还需要 pgtable 翻译成主机物理地址(Host Physical Address)并填入物理 CR3 寄存器,最后返回到 GuestOS中。随后 VMM 还将处理复杂的 GuestOS 缺页异常(Page Fault)。

比较著名的全虚拟化VMM 有 Microsoft Virtual PC、VMware Workstation、Sun Virtual Box、Parallels Desktop for Mac和QEMU。

  • 超虚拟化(Paravirtualization)
    这是一种修改 Guest OS 部分访问特权状态的代码以便直接与 VMM 交互的技术。在超虚拟化虚拟机中,部分硬件接口以软件的形式提供给客户机操作系统,这可以通过 Hvpercall (VMM 提供给 Guest OS 的直接调用,与系统调用类似)的方式来提供。例如,Guest OS把切换页表的代码修改为调用Hypercall来直接完成修改影子 CR3 寄存器和翻译地址的工作。由于不需要产生额外的异常和模拟部分硬件执行流程,超虚拟化可以大幅度提高性能,比较著名的 VMM 有 Denali、Xen。

  • 硬件辅助虚拟化(Hardware-assisted virtualization)
    硬件辅助虚拟化是指借助硬件(主要是主机处理器)的支持来实现高效的全虚拟化。例如有了Intel-VT 技术的支持,Guest Os 和VMM 的执行环境自动地完全隔离开来,Guest Os 有自己的""套寄存器”,可以直接运行在最高级别。因此在上面的例子中,Guest Os 能够执行修改页表的汇编指令。Intel-VT 和 AMD-V 是目前x86 体系结构上可用的两种硬件辅助虚拟化技术。
    这种分类并不是绝对的,一个优秀的虚拟化软件往往融合了多项技术。例如 VMware Workstation 是一个著名的全虚拟化的 VMM,但是它使用了一种被称为动态二进制翻译的技术把对特权状态的访问转换成对影子状态的操作,从而避免了低效的 Trap·And-Emulate 的处理方式,这与超虚拟化相似,只不过超虚拟化是静态地修改程序代码。对于超虚拟化而言,如果能利用硬件特性,那么虚拟机的管理将会大大简化,同时还能保持较高的性能。

3.3KVM虚拟化技术架构

3.4KVM架构解析

从rhel6开始使用,红帽公司直接把KVM的模块做成了内核的一部分。

Xen用在rhel6之前的企业版中默认内核不支持,需要重新安装带Xen功能的内核。

KVM针对运行在 x86 硬件上的、驻留在内核中的虚拟化基础结构。KVM 是第一个成为原生 Linux 内核(2.6.20)的一部分的 hypervisor,它是由 Avi Kivity 开发和维护的,现在归 Red Hat 所有。

这个 hypervisor 提供 x86 虚拟化,同时拥有到 PowerPC® 和IA64 的通道。另外,KVM 最近还添加了对对称多处理(SMP)主机(和来宾)的支持,并且支持企业级特性,比如活动迁移(允许来宾操作系统在物理服务器之间迁移)。

KVM 是作为内核模块实现的,因此 Linux 只要加载该模块就会成为一个hypervisor。KVM 为支持 hypervisor 指令的硬件平台提供完整的虚拟化(比如 Intel® Virtualization Technology [intel V 或 AMD Virtualization[AMD-V]产品)。KVM 还支持准虚拟化来宾操作系统,包括 Linux 和 Windows®。

这种技术由两个组件实现。第一个是可加载的 KVM 模块,当在 Linux 内核安装该模块之后,它就可以管理虚拟化硬件,并通过/proc 文件系统公开其功能。第二个组件用于 PC 平台模拟,它是由修改版 QEMU 提供的。QEMU作为用户空间进程执行,并且在来宾操作系统请求方面与内核协调。

当新的操作系统在 KVM 上启动时(通过一个称为 KVM 的实用程序),它就成为宿主操作系统的一个进程,因此就可以像其他进程一样调度它。但与传统的 Linux 进程不一样,来宾操作系统被 hypervisor 标识为处于"来宾" 模式(独立于内核和用户模式)。

每个来宾操作系统都是通过 /dev/KVM 设备映射的,它们拥有自己的虚拟地址空间,该空间映射到主机内核的物理地址空间。如前所述,KVM 使用底层硬件的虚拟化支持来提供完整的(原生)虚拟化。I/O 请求通过主机内核映射到在主机上(hypervisor)执行的 QEMU 进程。

KVM 在 Linux 环境中以主机的方式运行,不过只要底层硬件虚拟化支持,它就能够支持大量的来宾操作系统.

3.5 KVM软件安装
  • 查看cpu是否支持VT技术
cat /proc/cpuinfo|grep -E 'vmx|svm'
  • centos7安装软件
# uname -r
3.10.0-862.el7.x86_64

# yum install *qemu* *virt* *librbd1-devel* -y 

# 在安装虚拟机出错的情况下,一般是操作系统的版本问题
yum upgrade

qemu-kvm:主包
libvirt:API接口
virt-manager:图形管理程序

在所谓的kvm技术中,应用到的其实有2个东西:qemu+kvm
kvm负责cpu虚拟化+内存虚拟化,实现了cpu和内存虚拟化,但kvm不能模拟其他设备
qemu是模拟IO设备(网卡、磁盘),kvm加上qemu之后就能实现真正意义上的服务器虚拟化
因为用到了上面两个东西,所以一般称之为qemu-kvm
libvirt则是调用kvm虚拟化技术的接口用于管理的,用libvirt管理方便

  • 启动服务
systemctl status libvirtd
  • 查看kvm模块加载
# lsmod|grep kvm
kvm_intel             174841  122 
kvm                   578518  1 kvm_intel
irqbypass              13503  29 kvm

4.GuestOS

4.1GuestOS安装
  • 图形方式
  • 完全文本模式
  • 命令行模式
  • 通过飞机驾驶舱安装和管理虚拟机
yum install cockpit -y
systemctl start cockpit

访问:浏览器访问
服务器地址:9090

4.1.1图形模式安装GuestOS
virt-manager

4.1.2完全文本方式安装

极端情况————服务器没有图形 客户端也没有图形

# virt-install --connect qemu:///system -n vm6 -r 512 --diskpath=/virhost/vmware/vm6.img,size=7 --os-type=linux --os-variant=rhel6 --vcpus=1 --network bridge=br0 --location=http://127.0.0.1/rhel6u4 -x console=ttyS0 --nographics

# virt-install --connect qemu:///system -n vm9 -r 2048 --diskpath=/var/lib/libvirt/images/vm9.img,size=7 --os-type=linux --os-variant=centos7.0 --vcpus=1 --1ocation=ftp://192.168.100.230/centos7u3 -x console=ttyS0 --nographics

注意:

  • 1.用这种方式安装的操作系统,大小写会胡乱变化,不影响远程操作
  • 2.内存必须2G以上

查看KVM支持的OS版本:

man virt-install
osinfo-query os|grep centos

排错:

安装过程中:
手动配置IP地址
到url位置找不到路径,要返回去手动选择url,重新配置url为ftp://192.168.100.230/rhel6u4,这里的ip不要写127.0.0.1,而是br0的ip。
给虚拟机指定的内存必须大于2048M,不然报错如下:dracut-initqueue[552]:/sbin/dmsquash-live-root: line 273: printf: write error: No space left on device

逃脱符:

Escape character is ^]
4.1.3命令行模式安装

虚拟机的组成部分

# 1.虚拟机配置文件
ls /etc/libvirt/qemu
networks vm1.xml

# 2.储存虚拟机的介质
ls /var/lib/libvirt/images/vm1.img

根据配置文件创建虚拟机

# 1.需要有磁盘镜像文件
cp vm1.img vm2.img

# 2.需要有配置文件
cp vm1.xml vm2.xml

# 3.配置文件需要修改必要的内容

# 4.创建虚拟机:
virsh define /etc/libvirt/qemu/vm2.xml

# 5.重启一下
systemctl restart libvirtd

# 6.宿主机开启路由转发:
vim /etc/sysctl.conf
# 新增
net.ipv4.ip forward=1
sysctl -p
4.1.4实例

模板镜像+配置文件方式创建虚拟机

# 1.拷贝模板镜像和配置文件
cp /var/lib/libvirt/images/vm2.img /var/1ib/1ibvirt/images/vm3.img
cp /etc/libvirt/qemu/vm2.xml /etc/libvirt/gemu/vm3.xml

# 2.修改配置文件
vim /etc/libvirt/qemu/vm3.xml

# 一段说明内容
<!--
WARNING: THIS IS AN AUTO-GENERATED FILE. CHANGES TO IT ARE LIKELY TO BE
OVERWRITTEN AND LOST. Changes to this xml configuration should be made using:
  virsh edit devops03
or other application using the libvirt API.
-->

# 配置文件内容示例
<domain type='kvm'>
  <name>devops03</name>
  <uuid>38ae3c21-866a-408f-8ee5-c49a297568ba</uuid>
  <memory unit='KiB'>8388608</memory>
  <currentMemory unit='KiB'>8388608</currentMemory>
  <vcpu placement='static'>4</vcpu>
  <resource>
    <partition>/machine</partition>
  </resource>
  <os>
    <type arch='x86_64' machine='pc-i440fx-rhel7.0.0'>hvm</type>
    <boot dev='hd'/>
  </os>
  <features>
    <acpi/>
    <apic/>
  </features>
  <cpu mode='custom' match='exact' check='full'>
    <model fallback='forbid'>Skylake-Server-IBRS</model>
    <feature policy='require' name='spec-ctrl'/>
    <feature policy='disable' name='ssbd'/>
    <feature policy='require' name='hypervisor'/>
    <feature policy='disable' name='arat'/>
  </cpu>
  <clock offset='utc'>
    <timer name='rtc' tickpolicy='catchup'/>
    <timer name='pit' tickpolicy='delay'/>
    <timer name='hpet' present='no'/>
  </clock>
  <on_poweroff>destroy</on_poweroff>
  <on_reboot>restart</on_reboot>
  <on_crash>destroy</on_crash>
  <pm>
    <suspend-to-mem enabled='no'/>
    <suspend-to-disk enabled='no'/>
  </pm>
  <devices>
    <emulator>/usr/libexec/qemu-kvm</emulator>
    <disk type='file' device='disk'>
      <driver name='qemu' type='qcow2'/>
      <source file='/data/kvm/devops03/devops03.qcow2'/>
      <target dev='vda' bus='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/>
    </disk>
    <controller type='usb' index='0' model='ich9-ehci1'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x7'/>
    </controller>
    <controller type='usb' index='0' model='ich9-uhci1'>
      <master startport='0'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0' multifunction='on'/>
    </controller>
    <controller type='usb' index='0' model='ich9-uhci2'>
      <master startport='2'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x1'/>
    </controller>
    <controller type='usb' index='0' model='ich9-uhci3'>
      <master startport='4'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x2'/>
    </controller>
    <controller type='virtio-serial' index='0'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
    </controller>
    <controller type='pci' index='0' model='pci-root'/>
    <interface type='bridge'>
      <mac address='52:54:00:38:e6:42'/>
      <source bridge='br0'/>
      <model type='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
    </interface>
    <serial type='pty'>
      <target type='isa-serial' port='0'>
        <model name='isa-serial'/>
      </target>
    </serial>
    <console type='pty'>
      <target type='serial' port='0'/>
    </console>
    <channel type='unix'>
      <target type='virtio' name='org.qemu.guest_agent.0'/>
      <address type='virtio-serial' controller='0' bus='0' port='1'/>
    </channel>
    <input type='tablet' bus='usb'>
      <address type='usb' bus='0' port='1'/>
    </input>
    <input type='mouse' bus='ps2'/>
    <input type='keyboard' bus='ps2'/>
    <graphics type='vnc' port='5904' autoport='no' listen='0.0.0.0'>
      <listen type='address' address='0.0.0.0'/>
    </graphics>
    <video>
      <model type='cirrus' vram='16384' heads='1' primary='yes'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x02' function='0x0'/>
    </video>
    <memballoon model='virtio'>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x07' function='0x0'/>
    </memballoon>
    <rng model='virtio'>
      <backend model='random'>/dev/urandom</backend>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x08' function='0x0'/>
    </rng>
  </devices>
</domain>
4.2GuestOS安装问题解析

问题1:用图形安装GuestOS的时候卡住不动

解决:升级系统
yum upgrade -y

问题2:升级系统后安装GuestOS的时候还是卡住不动
解决:需要在安装宿主机的时候安装兼容性程序(有的同学就没有安装也可以使用,这可能是bug)

问题3:如果安装了各种兼容程序之后还是不行

rpm -qa|grep kvm
安装的主包需要是qemu-kvm

如果所有问题都排查过后还是安装不上GuestOS,最后的原因就是在安装宿主机系统的时候各种兼容性软件没有安装而且yum也没有自动处理导致的。

4.3GuestOS升级配置

1.修改配置文件(比如添加磁盘,那就添加如下配置)

<disk type='file' device='disk'>
<driver name='qemu'type='qcow2'/>
<source file='/var/lib/libvirt/images/vm3-1.img'/>
<target dev='vda' bus='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x16function='0x0'/>
</disk>

执行virsh define vm1.xml后会报错
特别注意:centos8里面硬盘和网卡的添加已经不能修改slot了,要求修改的是bus地址

2.创建新的空磁盘卷

qemu-img create -f qcow2 vm3-1.qcow2 10G

3.重新定义

virsh define /etc/libvirtd/qemu/vm3.xml

5.KVM存储

概念
KVM必须要配置一个目录当作他存储磁盘镜像(存储卷)的目录,我们称这个目录为存储池
默认存储池:/var/lib/libvirt/images/

5.1存储池管理
# 1.创建基于文件夹的存储池(目录)
mkdir -p /data/vmfs

# 2.定义存储池与其目录
virsh pool-define-as vmdisk --type dir --target /data/vmfs

# 3.创建已定义的存储池
(1)创建已定义的存储池
virsh pool-build vmdisk
(2)查看已定义的存储池,存储池不激活无法使用。
virsh pool-list --all

# 4.激活并自动启动已定义的存储池
virsh pool-start vmdisk
virsh pool-autostart vmdisk
这里vmdisk存储池就已经创建好了,可以直接在这个存储池中创建虚拟磁盘文件了。

# 5.在存储池中创建虚拟机存储卷
virsh vol-create-as vmdisk oeltest03.qcow2 20G --format qcow2
注1:KVM存储池主要是体现一种管理方式,可以通过挂载存储目录,lvm逻辑卷的方式创建存储池,虚拟机存储卷创建完成后,剩下的操作与无存储卷的方式无任何区别了。
注2:KVM存储池也要用于虚拟机迁移任务。

# 6.存储池相关管理命令
(1)在存储池中删除虚拟机存储卷
virsh vol-delete --pool vmdisk oeltest03.qcow2
(2)取消激活存储池
virsh pool-destroy vmdisk
(3)删除存储池定义的目录/data/vmfs
virsh pool-delete mdisk
(4)取消定义存储池
virsh pool-undefine vmdisk

到此KVM存储池配置与管理操作完毕。

5.2磁盘格式

1.磁盘镜像文件格式

  • raw:原始格式,性能最好。
  • qcow:先去网上了解下cow(写时拷贝copy on write),性能远不能和raw相比,所以很快夭折了,所以出现了qcow2。
  • qcow2:性能上还是不如raw,但是raw不支持快照,qcow2支持快照。
  • qed:现在默认安装好的用的是raw格式,所有做快照要把他转换成qcow2格式。

什么叫写时拷贝?

  • raw立刻分配空间,不管你有没有用到那么多空间
  • qcow2只是承诺给你分配空间,但是只有当你需要用空间的时候,才会给你空间。最多只给你承诺空间的大小,避免空间浪费。

工作当中用哪个?
看你用不用快照。工作当中虚拟机会有多个备份,一个坏了,再起一个就行了,所有没必要用快照。当然也不一定。数据绝对不会存储到本地。

2.创建磁盘文件

# 建立qcow2格式磁盘文件:
qemu-img create -f qcow2 test.qcow2 20G
# 建立raw格式磁盘文件:
qemu-img create -f raw test.raw 20G
# 查看已经创建的虚拟磁盘文件:
qemu-img info test.qcow2

3.挂载磁盘
作为虚拟化环境管理员,你肯定遇到过虚拟机无法启动的情况。实施排错时,你需要对虚拟机的内部进行检查。而libguestfs Linux工具集可以在这种情况下为你提供帮助。
利用libguestfs找出损坏的虚拟机文件
libguestfs允许在虚拟机上挂载任何类型的文件系统,以便修复启动故障。
使用libguestfs,首先需要使用libvirt。libvirt是一个管理接口,可以和KVM、Xen和其他一些基于Linux的虚拟机相互连接。libguestfs的功能更加强大,可以打开Windows虚拟机上的文件。但是首先你需要将虚拟机迁移到libguestfs可用的环境当中,也就是Linux环境。
假如你是vmware的ESXi虚拟机,为了将虚拟机迁移到Linux当中,你可以使用SSH连接到ESXi主机,这意味着你首先需要启用ESXi主机上的SSH访问方式。完成之后,在Linux平台上运行下面的scp命令。

# 查看磁盘镜像分区信息
virt-df -h devops03   
Filesystem                                Size       Used  Available  Use%
devops03:/dev/sda1                        476M       215M       232M   46%
devops03:/dev/sda2                        157G        14G       135G    9%

virt-filesystems -d devops03
/dev/sda1
/dev/sda2

# 挂载磁盘镜像分区
guestmount -d devops03 -m /dev/sda1 --rw /mnt

# 取消挂载
guestunmount /mnt

注:mtab文件在centos7的启动过程中非常有用,删掉会导致不能启动。

6.KVM管理

6.1KVM基本管理

查看、启动、关闭、重启、重置、查看

# 查看虚拟机
virsh list
virsh list --all

# 查看KVM虚拟机配置文件
virsh dumpxml name

# 将node4虚拟机的配置文件保存至node6.xml
virsh dumpxml node4 > /etc/libvirt/qemu/node6.xml

# 修改node6的配置文件
virsh edit node6
如果直接用vim编辑器修改配置文件的话,需要重启libvirtd服务

# 启动
virsh start vm1

# 暂停虚拟机
virsh suspend vm_name

# 恢复虚拟机
virsh resume vm_name

# 关闭
方法1:virsh shutdown vm1
方法2:virsh destroy vm1

# 重启
virsh reboot vm1

# 重置
virsh reset vm1

# 删除虚拟机
virsh undefine vm2

注意:虚拟机在开启的情况下undefine是无法删除的,但是如果再destroy会直接被删除掉。

# 虚拟机开机自启动
virsh autostart vm1

# 域vm1标记为自动开始
ls /etc/libvirt/qemu/autostart/   # 此目录默认不存在,在有开机启动的虚拟机时自动创建

# vm1取消标记为自动开始
virsh autostart --disable vm1域

# 查看所有开机自启的GuestOS
ls /etc/libvirt/gemu/autostart
virsh list --a1l --autostart
6.2虚拟机克隆
  • 1.图形界面
    Applications(左上角)----->System Tools ------>Virtual Machine Manager
    关闭要克隆的虚拟机,右键点击虚拟机选择Clone

  • 2.字符终端,命令克隆

virt-clone -o vm1 --auto-clone
WARNING设置图形设备端口为自动端口,以避免相互冲突。

virt-clone -o vm1 -n vm2 --auto-clone
WARNING 设置图形设备端口为自动端口,以避免相互冲突。

virt-clone -o vm1 -n vm2 -f /var/lib/libvirt/images/vm2.img
-f,--fi1e NEW_DISKFILE:为新客户机使用新的磁盘镜像文件
6.3增量镜像

1.概述

  • 实验目的:通过一个基础镜像(node.img),里面把各个虚拟机需要的环境都搭建好,然后基于这个镜像建立起一个个增量镜像,每个增量镜像对应一个虚拟机,虚拟机对镜像中所有的改变都记录在增量镜像里面,基础镜像始终保持不变。
  • 功能:节省磁盘空间,快速复制虚拟机。
  • 环境:
    基本镜像文件:node.img 虚拟机ID:node
    增量镜像文件:node4.img 虚拟机ID:node4
  • 要求:
    以基本镜像文件node.img为基础,创建一个镜像文件node4.img,以此创建一个虚拟机node4,虚拟机node4的改变将存储于node4.img中。

2.创建增量镜像文件

qemu-img create -b node.img -f qcow2 node4.img
qemu-img info node4.img

注:该实验只是针对qcow2格式的镜像文件,未测试raw格式的镜像文件是否可行。

3.创建虚拟机node4的xml配置文件

cp /etc/libvirt/qemu/node.xml /etc/libvirt/qemu/node4.xml

vim /etc/libvirt/qemu/node4.xml
<domain type='kvm'>
  <name>node4</name>    # node4的虚拟机名,需修改,否则与基本虚拟机冲突
  <uuid>922f4e09-de60-4990-9993-f75940e53b3d</uuid>     # node4的UUID,必须修改,否则与基本虚拟机冲突
  <memory unit='KiB'>8388608</memory>
  <currentMemory unit='KiB'>8388608</currentMemory>
  <vcpu placement='static'>4</vcpu>
  <os>
    <type arch='x86_64' machine='pc-i440fx-rhel7.0.0'>hvm</type>
    <boot dev='hd'/>
  </os>
  <features>
    <acpi/>
    <apic/>
  </features>

4.根据xml配置定义虚拟机node4

virsh define /etc/libvirt/qemu/node4.xml
virsh start node4

5.测试

du -h node.img
du -h node4.img

# 在虚拟机node4上创建增量200M大小文件
dd if=/dev/zero of=test bs=1M count=200

# 基本镜像文件node.img大小未变
du -h node.img

# 增量镜像文件node4.img增加了200M
du -h node4.img
6.4快照

为虚拟机vm8创建一个快照

virsh snapshot-create-as vm8 vm8.snap

raw
使用文件来模拟实际的硬盘(当然也可以使用一块真实的硬盘或一个分区)。由于原生的裸格式,不支持snapshot也是很正常的。但如果你使用LVM的裸设备,那就另当别论。说到LVM还是十分的犀利的,LVM的snapshot、性能、可扩展性方面都还是有相当的效果的。目前来看的话,备份的话也问题不大。就是在虚拟机迁移方面还是有很大的限制。但目前虚拟化的现状来看,真正需要热迁移的情况目前需求还不是是否的强烈。虽然使用LVM做虚拟机镜像的相关公开资料比较少,但目前来看牺牲一点灵活性,换取性能和便于管理还是不错的选择。

qcow2
现在比较主流的一种虚拟化镜像格式,经过一代的优化,目前qcow2的性能上接近raw裸格式的性能,这个也算是redhat的官方渠道了。
对于qcow2的格式,几点还是比较突出的,qcow2的snapshot,可以在镜像上做N多个快照:

  • 更小的存储空间
  • Copy-on-write support
  • 支持多个snapshot,对历史snapshot进行管理
  • 支持zlib的磁盘压缩
  • 支持AES的加密

实战

# 为虚拟机vm2创建一个快照(磁盘格式必须为qcow2)
virsh snapshot-create-as vm2 vm2.snap

# 查看磁盘文件格式
qemu-img info /var/lib/libvirt/images/vm2.qcow2

# 查看某台虚拟机设备的快照
virsh snapshot-list vm2

# 创建一块磁盘
qemu-img create -f raw /var/lib/libvirt/images/vm2-1.raw2
ll -h /var/lib/libvirt/images/vm2-1.raw

# 将其添加到vm2虚拟机上面
cd /etc/libvirt/qemu/
vim vm2.xml
# 这是原来的
  <devices>
    <emulator>/usr/libexec/qemu-kvm</emulator>
    <disk type='file' device='disk'>
      <driver name='qemu' type='qcow2'/>
      <source file='/var/lib/libvirt/images/vm2.qcow2'/>
      <target dev='vda' bus='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/>
    </disk>
# 将上面的复制下来,注意修改镜像,type类型
    <disk type='file' device='disk'>
      <driver name='qemu' type='raw'/>
      <source file='/var/lib/libvirt/images/vm2-1.raw'/>
      <target dev='vda' bus='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/>
    </disk>

virsh define /etc/libvirt/qemu/vm2.xml
virsh start vm2
virsh snapshot-create-as vm2 vm2.snap1
# 错误:不支持的配置:存储类型vdb不支持raw的内部快照

将raw格式转换成qcow2格式

qemu-img convert -O qcow2 /var/ib/libvirt/images/vm2-1.raw 
cd /var/ib/libvirt/images/
ll -h
qemu-img info /var/lib/libvirt/images/vm2-1.qcow2

将虚拟机的硬盘指向转换后的qcow2.img

vim /etc/libvirt/qemu/vm2.xml
virsh define /etc/libvirt/qemu/vm2.xml

# 创建快照
virsh snapshot-create-as vm2 vm2.snap2

在虚拟机中创建一个目录,但目录中是空的

mkdir /test
ls /test

给虚拟机vm2创建第三个快照vm2.snap3

virsh snapshot-create-as vm2 vm2.snap3

在虚拟机中,给 /test 中复制2个文件

cp install.log anaconda-ks.cfg /test
ls /test

给虚拟机vm2创建第四个快照vm2.snap4

virsh snapshot-create-as vm2 vm2.snap4

在虚拟机中,发现/test目录为空

ls /test

关闭虚拟机,恢复到第四个快照

virsh shutdown vm2
virsh snapshot-revert vm2 vm2.snap4

在虚拟机中,发现 /test 有拷贝的2个文件

ls /test

查看虚拟机快照

virsh snapshot-list vm2

删除虚拟机快照

virsh snapshot-delete --snapshotname vm2.snap
virsh snapshot-list vm2
posted on 2024-09-10 17:28  jiayou111  阅读(47)  评论(0编辑  收藏  举报