美文网首页
k8s集群环境配置-VMware16pro安装集群(三)

k8s集群环境配置-VMware16pro安装集群(三)

作者: 漫长的白日梦技术大佬 | 来源:发表于2022-08-27 23:09 被阅读0次

    1.首先下载MobaXterm这个软件。

    MobaXterm 又名MobaXterm,是一款增强型终端、X 服务器和 Unix 命令集(GNU/ Cygwin)工具箱。

    MobaXterm 可以开启多个终端视窗,以最新的 X 服务器为基础的 X.Org,可以轻松地来试用 Unix/Linux 上的 GNU Unix 命令。这样一来,我们可以不用安装虚拟机来试用虚拟环境,然后只要通过 MobaXterm 就可以使用大多数的 linux 命令。MobaXterm 还有很强的扩展能力,可以集成插件来运行 Gcc, Perl、Curl、Tcl / Tk / Expect 等程序。

    MobaXterm 分免费开源版和收费专业版。官网提供 MobaXterm 的免费开源版 “Home Edition” 下载, 免费开源版又分绿色免安装版(解压即用)和安装版(需要一步步安装)。MobaXterm 免费版(personal)和专业版(Professional)除了 sessions 数、SSH tunnels 数和其他一些定制化配置外限制外,免费版在终端底部还多了一个 “UNREGISTERED VERSION” 提示。

    MobaXterm主要功能:

    支持各种连接 SSH,X11,RDP,VNC,FTP,MOSH

    支持 Unix 命令(bash,ls,cat,sed,grep,awk,rsync,…)

    连接 SSH 终端后支持 SFTP 传输文件

    各种丰富的插件(git/dig/aria2…)

    可运行 Windows 或软件

    (1)  软件的安装

    官网下载后解压文件,运行 MobaXterm_Personal_11.1.exe 即可开始安装。第一次打开会自解压,会比较慢,后续就正常了。官网链接为:

    https://mobaxterm.mobatek.net/download.html

    下载后的界面长这样,首先设置一下快捷键,MobaXterm默认鼠标右键粘贴不是很方便,所以取消右键默认粘贴。

    重复3次,分别输入master、node1和node2的IP地址,root名字和密码。此处以master节点的IP为例。

    (2)  这里可以为了方便可以三个实例一起配置。

    2.环境初始化

    (1)  检查操作系统的版本

    # 此方式下安装kubernetes集群要求Centos版本要在7.5或之上

    [root@master ~]# cat /etc/redhat-release

    CentOS Linux release 7.5.1804 (Core)

    (2)  主机名解析

    为了方便后面集群节点间的直接调用,在这配置一下主机名解析,企业中推荐使用内部DNS服务器。

    vim /etc/hosts

    输入i,进入编辑模式。

    # 主机名成解析 编辑三台服务器的/etc/hosts文件,添加下面内容

    192.168.109.100 master

    192.168.109.101 node1

    192.168.109.102 node2

    以一个为例,这些都是master、node1和node23个节点共同设置部分。输入完成后点击esc键后输入:wq后保存退出。

    (3) 时间同步

    kubernetes要求集群中的节点时间必须精确一致,这里直接使用chronyd服务从网络同步时间。

    企业中建议配置内部的时间同步服务器。

    # 启动chronyd服务

    [root@master ~]# systemctl start chronyd

    # 设置chronyd服务开机自启

    [root@master ~]# systemctl enable chronyd

    # chronyd服务启动稍等几秒钟,就可以使用date命令验证时间了

    [root@master ~]# date

    (4) 禁用iptables和firewalld服务

    kubernetes和docker在运行中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

    # 1 关闭firewalld服务

    [root@master ~]# systemctl stop firewalld

    [root@master ~]# systemctl disable firewalld

    # 2 关闭iptables服务

    [root@master ~]# systemctl stop iptables

    [root@master ~]# systemctl disable iptables

    (5) 禁用selinux

    selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题。

    编辑 /etc/selinux/config 文件,修改SELINUX的值为disabled

    vim /etc/selinux/config

    # 注意修改完毕之后需要重启linux服务

    SELINUX=disabled

    (6) 禁用swap分区

    swap分区指的是虚拟内存分区,它的作用是在物理内存使用完之后,将磁盘空间虚拟成内存来使用

    启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备

    但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

    # 编辑分区配置文件/etc/fstab,注释掉swap分区一行

    vim /etc/fstab

    # 注意修改完毕之后需要重启linux服务

    UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot    xfs    defaults        0 0

    /dev/mapper/centos-home /home                      xfs    defaults        0 0

    # /dev/mapper/centos-swap swap                      swap    defaults        0 0

    (7) 修改linux的内核参数

    # 修改linux的内核参数,添加网桥过滤和地址转发功能

    # 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:

    vim /etc/sysctl.d/kubernetes.conf

    net.bridge.bridge-nf-call-ip6tables = 1

    net.bridge.bridge-nf-call-iptables = 1

    net.ipv4.ip_forward = 1

    # 重新加载配置

    [root@master ~]# sysctl -p

    # 加载网桥过滤模块

    [root@master ~]# modprobe br_netfilter

    # 查看网桥过滤模块是否加载成功

    [root@master ~]# lsmod | grep br_netfilter

    (8)配置ipvs功能

    在kubernetes中service有两种代理模型,一种是基于iptables的,一种是基于ipvs的

    两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

    # 1 安装ipset和ipvsadm

    [root@master ~]# yum install ipset ipvsadmin -y

    # 2 添加需要加载的模块写入脚本文件

    [root@master ~]# cat <<EOF >  /etc/sysconfig/modules/ipvs.modules

    #!/bin/bash

    modprobe -- ip_vs

    modprobe -- ip_vs_rr

    modprobe -- ip_vs_wrr

    modprobe -- ip_vs_sh

    modprobe -- nf_conntrack_ipv4

    EOF

    # 3 为脚本文件添加执行权限

    [root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules                                                                                                                                                  # 4 执行脚本文件

    [root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules

    # 5 查看对应的模块是否加载成功

    [root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

    (9) 重启服务器

    上面步骤完成之后,需要重新启动linux系统

    [root@master ~]# reboot

    (10) 重启后重新登陆3个节点

    3.安装docker

    (1) 切换镜像源

    [root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

    (2) 查看当前镜像源中支持的docker版本

    [root@master ~]# yum list docker-ce --showduplicates

    (3) 安装特定版本的docker-ce

    # 必须指定--setopt=obsoletes=0,否则yum会自动安装更高版本

    [root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y

    (4)  添加一个配置文件

    等3个节点的docker都安装成功后再进行这一步。

    # Docker在默认情况下使用的Cgroup Driver为cgroupfs,而kubernetes推荐使用systemd来代替cgroupfs

    [root@master ~]# mkdir /etc/docker

    [root@master ~]# cat <<EOF >  /etc/docker/daemon.json

    {

      "exec-opts": ["native.cgroupdriver=systemd"],

      "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]

    }

    EOF

    (5) 启动docker

    [root@master ~]# systemctl restart docker

    [root@master ~]# systemctl enable docker

    (6) 检查docker状态和版本

    [root@master ~]# docker version

    4.安装kubernetes组件


    (1) 由于kubernetes的镜像源在国外,速度比较慢,这里切换成国内的镜像源

    # 编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置

    vim /etc/yum.repos.d/kubernetes.repo

    [kubernetes]

    name=Kubernetes

    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64

    enabled=1

    gpgcheck=0

    repo_gpgcheck=0

    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg

                 http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

    (2)  安装kubeadm、kubelet和kubectl

    [root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y

    (3)  配置kubelet的cgroup

    # 编辑/etc/sysconfig/kubelet,添加下面的配置

    vim /etc/sysconfig/kubelet

    KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"

    KUBE_PROXY_MODE="ipvs"

    (4) 设置kubelet开机自启

    [root@master ~]# systemctl enable kubelet

    5.准备集群镜像

    (1) 在安装kubernetes集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看

    [root@master ~]# kubeadm config images list

    (2) 下载镜像

    # 此镜像在kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替代方案

    images=(

        kube-apiserver:v1.17.4

        kube-controller-manager:v1.17.4

        kube-scheduler:v1.17.4

        kube-proxy:v1.17.4

        pause:3.1

        etcd:3.4.3-0

        coredns:1.6.5

    )

    for imageName in ${images[@]} ; do

    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName

    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName

    docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName

    done

    6.集群初始化

    下面开始对集群进行初始化,并将node节点加入到集群中

    (1) 下面的操作只需要在master节点上执行即可


    # 创建集群

    [root@master ~]# kubeadm init \

    --kubernetes-version=v1.17.4 \

        --pod-network-cidr=10.244.0.0/16 \

        --service-cidr=10.96.0.0/12 \

        --apiserver-advertise-address=192.168.56.200 #(自己的master节点IP)

    # 创建必要文件

    [root@master ~]# mkdir -p $HOME/.kube

    [root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

    [root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config


    (2) 下面的操作只需要在node节点上执行即可

    # 将node节点加入集群

    [root@master ~]#

    kubeadm join 192.168.56.200:6443 --token 24xyml.eni8jsk1qw1d6bde \ --discovery-token-ca-cert-hash sha256:4120dabd8ade8ffb67504658f16ea8788d5f9aa00047bc2f9728d2fb9ffd3c39

    # 查看集群状态 此时的集群状态为NotReady,这是因为还没有配置网络插件

    [root@master ~]# kubectl get nodes

    NAME    STATUS    ROLES    AGE    VERSION

    master  NotReady  master  6m43s  v1.17.4

    node1    NotReady  <none>  22s    v1.17.4

    node2    NotReady  <none>  19s    v1.17.4


    7.安装网络插件

    kubernetes支持多种网络插件,比如flannel、calico、canal等等,任选一种使用即可,本次选择flannel

    下面操作依旧只在master节点执行即可,插件使用的是DaemonSet的控制器,它会在每个节点上都运行。

    (1)安装flannel镜像(master和node节点都需要安装)

    docker pull rancher/mirrored-flannelcni-flannel-cni-plugin:v1.1.0

    docker pull rancher/mirrored-flannelcni-flannel:v0.19.2

    (1) 获取fannel的配置文件(仅master节点)

    [root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

    # 修改文件中quay.io仓库为quay-mirror.qiniu.com

    # 使用配置文件启动fannel,网络可能比较慢,可以提前把kube-flannel.yml文件拉到root里面。

    [root@master ~]# kubectl apply -f kube-flannel.yml

    # 稍等片刻,再次查看集群节点的状态

    [root@master ~]# kubectl get nodes

    至此,kubernetes的集群环境搭建完成。

    8.服务部署

    接下来在kubernetes集群中部署一个nginx程序,测试下集群是否在正常工作。

    (1) 部署nginx

    [root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine

    (2) 暴露端口

    [root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort

    (3) 查看服务状态

    [root@master ~]# kubectl get pods

    [root@master ~]# kubectl get service

    注意绿色框内的数字,为暴露的端口。

    (4) 最后在电脑上访问下部署的nginx服务

    q

    相关文章

      网友评论

          本文标题:k8s集群环境配置-VMware16pro安装集群(三)

          本文链接:https://www.haomeiwen.com/subject/esrqnrtx.html