KVM与QEMU
网络虚拟化属于IO虚拟化,KVM模块本身不提供任何设备模拟,模块在初始化的时候会创建特殊设备文件/dev/kvm,并提供KVM API供用户态调用。KVM API是一些列ioctl集合。下面是一个调用KVM API的例子:
#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <sys/ioctl.h>
#include <fcntl.h>
#include <unistd.h>
#include <linux/kvm.h>
#define KVM_FILE "/dev/kvm"
int main()
{
int dev;
int ret;
dev = open(KVM_FILE,O_RDWR|O_NDELAY);
ret = ioctl(dev,KVM_GET_API_VERSION,0);
printf("----KVM API version is--%d---\n",ret);
ret = ioctl(dev,KVM_CHECK_EXTENSION,KVM_CAP_MAX_VCPUS);
printf("----KVM supports MAX_VCPUS per guest(VM) is %d---\n",ret);
ret = ioctl(dev,KVM_CHECK_EXTENSION,KVM_CAP_IOMMU);
if(ret != 0)
printf("----KVM supports IOMMU (i.e. Intel VT-d or AMD IOMMU).----\n");
else
printf("----KVM doesn't support IOMMU (i.e. Intel VT-d or AMD IOMMU).----\n");
return 0;
}
~]gcc kvm-api-test.c -o kvm-api-test
~]./kvm-api-test
----KVM API version is--12---
----KVM supports MAX_VCPUS per guest(VM) is 255---
----KVM doesn't support IOMMU (i.e. Intel VT-d or AMD IOMMU).----
QEMU出现比KVM要早,本身是一套完整的虚拟化方案。由于是纯软件实现,性能低下。KVM使用了QEMU的IO设备虚拟化技术(包括网卡、磁盘、鼠标、光驱等),从QEMU的角度看,KVM 模块提升了QEMU虚拟机的性能。二者的关系可以参考:
用户态的QEMU通过KVM的ioctl接口创建vcpu,并负责虚拟机的IO操作模拟。
全虚拟化
全虚拟化简单的说就是虚拟机不知道自己是虚拟机。全虚拟化的网卡,虚机内部不需要做任何改动。
全虚拟化虚机IO操作的过程是:
1,客户机的设备驱动程序发起 I/O 请求操作请求
2,KVM 模块中的 I/O 操作捕获代码拦截这次 I/O 请求
3,经过处理后将本次 I/O 请求的信息放到 I/O 共享页 (sharing page),并通知用户空间的 QEMU 程序。
4,QEMU 程序获得 I/O 操作的具体信息之后,交由硬件模拟代码来模拟出本次 I/O 操作。
5,完成之后,QEMU 将结果放回 I/O 共享页,并通知 KMV 模块中的 I/O 操作捕获代码。
6,KVM 模块的捕获代码读取 I/O 共享页中的操作结果,并把结果放回客户机。
这种方式的优点是可以模拟出各种各样的硬件设备;其缺点是每次 I/O 操作的路径比较长,需要多次上下文切换,也需要多次数据复制,所以性能较差。
QEMU的默认网卡为rtl8139,目前常见的生产环境是网桥模式,数据的转发过程为:
半虚拟化Virtio
虚拟机操作系统不仅知道它运行在 hypervisor 之上,还包含让虚机操作系统更高效地过渡到 hypervisor 的代码。
图片来自IBM中国文档库,左图是全虚拟化,右图半虚拟化。对比可以发现,全虚拟化下虚机操作系统不需要改动,虚拟化层需要捕捉IO,模拟硬件行为,因此效率较低;版虚拟化下虚拟机操作系统驱动做了修改,通过标准化接口直接将数据写入QEMU设备,减少内核Traps,提高了效率,同时接口标准化也方便跨平台。
virtio
数据转发过程:
Vhost_net
前面提到 virtio 在宿主机中的后端处理程序(backend)一般是由用户空间的QEMU提供的,然而如果对于网络 I/O 请求的后端处理能够在在内核空间来完成,则效率会更高,会提高网络吞吐量和减少网络延迟。在比较新的内核中有一个叫做 “vhost-net” 的驱动模块,它是作为一个内核级别的后端处理程序,将virtio-net的后端处理任务放到内核空间中执行,减少内核空间到用户空间的切换,从而提高效率。
vhost-net 能提供更低的延迟(latency)(比 e1000 虚拟网卡低 10%),和更高的吞吐量(throughput)(8倍于普通 virtio,大概 7~8 Gigabits/sec )。
MacVTap
虚拟化中一般使用TAP和bridge来组建虚拟网络,但这样组网结构会稍显复杂。Linux上的MACTAP设备可以简化这种结构。MACVTAP设备集成了MACVLAN和TAP设备二者的特性。每一台MacVTap设备拥有一台对应的Linux字符设备,并拥有和TAP设备一样的IOCTL接口供QEMU调用。它也可以基于一个物理网卡创建多个MAC地址不同的虚拟网卡,同时虚拟网卡收到的包不再交给内核协议栈,而是通过TAP设备的文件描述符传递到用户态进程。
总结
在硬件支持的前提下,linux虚机MacVTap+vhost_net性能较好,windows虚机由于兼容性问题,选择全虚拟化比较方便。
http://www.cnblogs.com/sammyliu/p/4543657.html
http://smilejay.com/2013/03/use-kvm-api/
https://www.ibm.com/developerworks/cn/linux/l-virtio/
《KVM虚拟化技术实战与原理解析》
《深度实践KVM》