我还是一个视觉系的,很多东西都感觉知道,但不能好好的去表达,还是看图好一点。
上菜。。。
xen-full-w-pv.png
OK,这是一张关于xen的架构图(来自于马哥),从这张图上,我们可以看出xen是一个type-II的虚拟化实现,type-II是在硬件之上直接安装一个Hypervisor,再在Hypervisor上安装各Guest,可上面的图好像有点不同啊。
不错,在计算机的世界里,实际就是在实现现实世界中的各种事物,如简单的1+1,又如实现一个国家的信息管控,但计算机的世界和现实世界是完全不一样的,那么要在计算机的世界里实现现实世界的事物就不可能1:1的实现。人生活现实中,而计算机的世界却是人去构建的,如何完美。
折中 中间层(没有解决不了的问题,有就再加一层)
这在计算机世界中处处可见.......
上面这么多的废话,就是xen为什么不是一个我们定义的type-II的标准样子。下面我们来说说原因,xen如何要做到一个标准的type-II,那么它就要能够和所有的硬件打交道,换句话说,就是要驱动所有的硬件,而硬件的驱动一般都是由硬件生产商开发的,
(这里开启吐槽模式,intel没有提供8代cpu的部分驱动对win7的支持,导致好长一段时间我们都不能愉快的玩耍,wan e de intel !)
linux对硬件的支持都不能说很好,linux不能说多普及,但在很多领域中也是广泛使用的,但有的硬件就是不支持。
那xen呢,它没法到找所有的硬件制造商让他们开发吧,那怎么办,自己开发吗?这是不可能完成的。
办法总比问题多,好吧,没有驱动,我就用别人的好了,于是就出现 上面的那种结构,xen的hypervisor只负责对硬件cpu和内存的驱动,而其它硬件如:I/O设备等的驱动托管给了dom0(linux)。
半方大的空白 或 空白
全方大的空白 或 空白
不断行的空白 或 空白
XEN的特点:
1、Xen Hypervisor
Xen Hypervisor是直接运行在硬件与所有操作系统之间的基本软件层。它负责为运行在硬件设备上的不同种类的虚拟机(不同操作系统)进行CPU调度和内 存分配。Xen Hypervisor对虚拟机来说不单单是硬件的抽象接口,同时也控制虚拟机的执行,让他们之间共享通用的处理环境。
Xen Hypervisor不负责处理诸如网络、外部存储设备、视频或其他通用的I/O处理。
2、Domain 0
Domain 0 是经过修改的Linux内核,是运行在Xen Hypervisor之上独一无二的虚拟机,拥有访问物理I/O资源的特权,并且可以与其他运行在Xen Hypervisor之上的其他虚拟机进行交互。所有的Xen虚拟环境都需要先运行Domain 0,然后才能运行其他的虚拟客户机。
Domain 0 在Xen中担任管理员的角色,它负责管理其他虚拟客户机。
在Domain 0中包含两个驱动程序,用于支持其他客户虚拟机对于网络和硬盘的访问请求。这两个驱动分别是Network Backend Driver和Block Backend Driver。 Network Backend Driver直接与本地的网络硬件进行通信,用于处理来自Domain U客户机的所有关于网络的虚拟机请求。根据Domain U发出的请求Block Backend Driver直接与本地的存储设备进行通信然后将数据读写到存储设备上。
3、Domain U
Domain U客户虚拟机没有直接访问物理硬件的权限。所有在Xen Hypervisor上运行的半虚拟化客户虚拟机(简称:Domain U PV Guests)都是被修改过的基于Linux的操作系统、Solaris、FreeBSD和其他基于UNIX的操作系统。所有完全虚拟化客户虚拟机(简 称:Domain U HVM Guests)则是标准的Windows和其他任何一种未被修改过的操作系统。
无论是半虚拟化Domain U还是完全虚拟化Domain U,作为客户虚拟机系统,Domain U在Xen Hypervisor上运行并行的存在多个,他们之间相互独立,每个Domain U都拥有自己所能操作的虚拟资源(如:内存,磁盘等)。而且允许单独一个Domain U进行重启和关机操作而不影响其他Domain U。
说了这么多,下面来说说安装,惯例,上菜...
看图20秒,快进到安装流程
以Centos为例:
一个安装好的Centos要安装XEN,然后顺利的成为XEN的第一个虚拟机dom0,直接安装xen是不行的,它的内核不支持这样来运行,
如果想自己编译内核请参考:
https://wiki.xen.org/wiki/Mainline_Linux_Kernel_Configs
当然,Centos 给我们提供有编辑好了的kernel,真是太好了,哈哈
let's go
首首先,我是最小化安装的 CentOS Linux release 7.6.1810
查看是否支持vmx or svm
# grep -E 'vmx|svm' /proc/cpuinfo
如果有返回说明当前系统支持硬件辅助虚拟化
'我是在vmware中使用的,在这里我要为我的没钱道歉(有没有一首歌叫"坑太多")'
vmware-set.png
-
安装xen的yum源
# yum install centos-release-xen
Installed:
centos-release-xen.x86_64 10:8-7.el7.centos
Dependency Installed:
centos-release-virt-common.noarch 0:1-1.el7.centos
centos-release-xen-common.x86_64 10:8-7.el7.centos
Complete!
这个安装提供了以下文件:
;xen的安装源
/etc/yum.repos.d/CentOS-Xen.repo
;gpg的key支持
/etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-SIG-Virtualization
;Extra Packages from EPEL for Xen 就是epel源
/etc/yum.repos.d/CentOS-Xen-dependencies.repo
;grup的配置文件生成脚本
/usr/bin/grub-bootxen.sh
因为这个源的针对性很强,而且其中有kernel的包,以免以后忘记出
现问题,关闭这个安装源,安装时使用"--enablerepo="来安装,另外这个repo源是Centos提供的,url为http://mirror.centos.org,慢就一个字,我只用镜像源。
# sed -i -e "s/enabled=1/enabled=0/g" /etc/yum.repos.d/CentOS-Xen.repo
# sed -i -e "s/enabled=1/enabled=0/g" /etc/yum.repos.d/CentOS-Xen-dependencies.repo
# vim /etc/yum.repos.d/CentOS-Xen.repo
baseurl=http://mirror.centos.org/centos/$releasever/virt/$basearch/xen-48
使用阿里镜像,修改为
baseurl=https://mirrors.aliyun.com/centos/$releasever/virt/$basearch/xen-48
[centos-virt-xen-48]
-
安装kernel
# yum --enablerepo=centos-virt-xen-48 install kernel
:
:
Installed:
kernel.x86_64 0:4.9.188-35.el7
Complete!
-
安装XEN
# yum --enablerepo=centos-virt-xen-48 install xen
:
:
Install 1 Package (+81 Dependent packages)
:
Complete!
查看grub.cfg发现
menuentry 'CentOS Linux, with Xen hypervisor'
multiboot /xen-4.8.5.21.g752fb21a29-1.el7.gz placeholder dom0_mem=1024M,max:1024M cpuinfo com1=115200,8n1 console=com1,tty loglvl=all guest_loglvl=all ${xen_rm_opts}
说明这时xen已然安装成功(安装成功)
# reboot
niceboat.png
呵呵...
一直一直就这个,好nb的启动界面(我无数次的以为死机了,无数次...,直到有一次启动的时候我去干其它事儿去了,回来一看,神奇的事情发生了,启动成功。我再呵呵)long long ago...过程我就不说了,不堪回首!
# vim /etc/default/grub
GRUB_CMDLINE_XEN_DEFAULT="dom0_mem=1024M,max:1024M cpuinfo com1=115200,8n1 console=com1,tty loglvl=all guest_loglvl=all"
修改为
GRUB_CMDLINE_XEN_DEFAULT="dom0_mem=1024M,max:1536M cpuinfo loglvl=all guest_loglvl=all"
dom0_mem:dom0内存大小自己看需要
应该是console配置的问题,但找不到合适的配置
=================================================================
官方说明
http://xenbits.xen.org/docs/unstable/misc/xen-command-line.html#console
1.2.26 console
= List of [ vga | com1[H,L] | com2[H,L] | pv | dbgp | none ]
Default: console=com1,vga
=================================================================
修改后重新生成grub启动菜单
[root@localhost xen]# grub-bootxen.sh
[root@localhost xen]# reboot
这样可以看到xen的启动
xen-boot.png
dom0的启动看不到
niceboat2.png
正常进系统
boot-ok.png
好吧这个问题跳过。。。。。(再次道歉ing...)
[root@localhost ~]# xl list
Name ID Mem VCPUs State Time(s)
Domain-0 0 1024 2 r----- 101.3
[root@localhost ~]#
看来现在一切正常了可以建虚拟机了吧,go go go
第一步,神说:要有硬盘,于是就有了qemu-img
qemu-img有个选项叫什么呢?记不住了
[root@localhost ~]# qemu-img create -f qcow2 -o?
Supported options:
size Virtual disk size
compat Compatibility level (0.10 or 1.1)
backing_file File name of a base image
backing_fmt Image format of the base image
encryption Encrypt the image
cluster_size qcow2 cluster size
preallocation Preallocation mode (allowed values: off, metadata, falloc, full)
lazy_refcounts Postpone refcount updates
[root@localhost ~]# qemu-img create -f qcow2 -o preallocation=metadata /xen/test.qcow2 2G
Formatting '/xen/test.qcow2', fmt=qcow2 size=2147483648 encryption=off cluster_size=65536 preallocation='metadata' lazy_refcounts=off
[root@localhost ~]# ls /xen/
test.qcow2
第二步,神还说:要有网卡,于是就有了我敲键盘
systemctl stop NetworkManager
systemctl disable NetworkManager
据说这个和vm有冲突,开启了systemctl 好像没法管理网卡
[root@localhost ~]# cd /etc/sysconfig/network-scripts/
[root@localhost network-scripts]# cp ifcfg-ens33 ifcfg-xenbr0
[root@localhost network-scripts]# vim ifcfg-ens33
BOOTPROTO="static"
BRIDGE="xenbr0"
不要ip地址
[root@localhost network-scripts]# vim ifcfg-xenbr0
TYPE="Bridge"
DEVICE="xenbr0"
需要ip地址
[root@localhost network-scripts]# systemctl restart network
[root@localhost network-scripts]# ifconfig
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet6 fe80::20c:29ff:fea4:8736 prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:a4:87:36 txqueuelen 1000 (Ethernet)
RX packets 6061 bytes 435721 (425.5 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 1444 bytes 177306 (173.1 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1 (Local Loopback)
RX packets 68 bytes 5908 (5.7 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 68 bytes 5908 (5.7 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
xenbr0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.2.10 netmask 255.255.255.0 broadcast 192.168.2.255
inet6 fe80::20c:29ff:fea4:8736 prefixlen 64 scopeid 0x20<link>
ether 00:0c:29:a4:87:36 txqueuelen 1000 (Ethernet)
RX packets 48 bytes 2861 (2.7 KiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 35 bytes 3705 (3.6 KiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
[root@localhost network-scripts]# brctl show
bridge name bridge id STP enabled interfaces
xenbr0 8000.000c29a48736 no ens33
[root@localhost network-scripts]#
验证网卡是否绑到了xenbr0桥上,xenbr0是否有ip地址等。。。
准备工作做完了,现在该我说了,写配置文件
[root@localhost ~]# cd /etc/xen/
[root@localhost xen]# ls
auto cpupool scripts xl.conf xlexample.hvm xlexample.pvlinux
[root@localhost xen]# cp xlexample.hvm test
[root@localhost xen]# ls
auto cpupool scripts test xl.conf xlexample.hvm xlexample.pvlinux
[root@localhost xen]# vim test
[root@localhost xen]# grep -Ev "(^#|^$)" /etc/xen/test
builder = "hvm"
name = "test"
memory = 1024
vcpus = 2
vif = [ 'bridge=xenbr0' ]
disk = [ '/xen/test.qcow2,qcow2,xvda,rw' ]
sdl = 1
[root@localhost xen]# xl create test
Parsing config from test
libxl: error: libxl_dm.c:2184:device_model_spawn_outcome: domain 1 device model: spawn failed (rc=-3)
libxl: error: libxl_create.c:1535:domcreate_devmodel_started: device model did not start: -3
libxl: error: libxl_dm.c:2298:kill_device_model: Device Model already exited
libxl: error: libxl.c:1572:libxl__destroy_domid: non-existant domain 1
libxl: error: libxl.c:1531:domain_destroy_callback: unable to destroy guest with domid 1
libxl: error: libxl.c:1460:domain_destroy_cb: destruction of domain 1 failed
[root@localhost xen]#
失败 好开森啊
找度娘,找啊找。。。说是使用vnc可以,好,改
[root@localhost xen]# vim test
[root@localhost xen]# grep -Ev "(^#|^$)" /etc/xen/test
builder = "hvm"
name = "test"
memory = 1024
vcpus = 2
vif = [ 'bridge=xenbr0' ]
disk = [ '/xen/test.qcow2,qcow2,xvda,rw' ]
vnc = 1
vnclisten = '0.0.0.0'
[root@localhost xen]# xl create test
Parsing config from test
[root@localhost xen]# xl list
Name ID Mem VCPUs State Time(s)
Domain-0 0 1024 2 r----- 227.2
test 4 1024 1 -b---- 1.5
[root@localhost xen]# ss -tnl
State Recv-Q Send-Q Local Address:Port Peer Address:Port
LISTEN 0 128 *:22 *:*
LISTEN 0 100 127.0.0.1:25 *:*
LISTEN 0 1 *:5900 *:*
LISTEN 0 128 :::22 :::*
LISTEN 0 100 ::1:25 :::*
[root@localhost xen]#
5900开了,连上去
vnc.png
OK,现在算是成功了
轻松愉快吧,可以好像还有很多的问题不是吗?
xl是什么?
sdl为什么不能用?
系统要怎么安装?
配置文件只能手写吗?
vnclisten = '0.0.0.0',为什么要写这个?
网友评论