美文网首页k8s
k8s 基础概念及架构

k8s 基础概念及架构

作者: 宇晨棒棒的 | 来源:发表于2021-10-29 11:32 被阅读0次

    一.学习前置知识

    1.linux基本知识点     

    2.docker 基础知识     参考:https://www.jianshu.com/c/fb233d56612f

    二.k8s概念和架构知识

    0.应用部署方式演变

    在部署应用程序的方式上,主要经历了三个时代:

    应用部署方式演变

    1)传统部署:互联网早期,会直接将应用程序部署在物理机上

    优点:简单,不需要其它技术的参与

    缺点:不能为应用程序定义资源使用边界,很难合理地分配计算资源,而且程序之间容易产生影响

    2)虚拟化部署:可以在一台物理机上运行多个虚拟机,每个虚拟机都是独立的一个环境

    (工作中没有遇到这样部署应用的-----只在本地遇到过使用vargant本地部署服务测试使用)

    优点:程序环境不会相互产生影响,提供了一定程度的安全性

    缺点:增加了操作系统,浪费了部分资源

    3)容器化部署:与虚拟化类似,但是共享了操作系统

    优点:

    a.可以保证每个容器拥有自己的文件系统、CPU、内存、进程空间等

    b.运行应用程序所需要的资源都被容器包装,并和底层基础架构解耦

    c.容器化的应用程序可以跨云服务商、跨Linux操作系统发行版进行部署

    可能遇到的问题:

    a.一个容器故障停机了,怎么样让另外一个容器立刻启动去替补停机的容器

    b.当并发访问量变大的时候,怎么样做到横向扩展容器数量

    c.当并发访问量下降了,怎么样回收容器的数量

    其实这些容器管理的问题统称为容器编排问题,为了解决这些容器编排问题,就产生了一些容器编排的软件:

    Swarm、compose:Docker自己的容器编排工具     

    (具体参考:https://www.jianshu.com/c/fb233d56612f   中关于swarm和compose相关知识)

    Mesos:Apache的一个资源统一管控的工具,需要和Marathon结合使用

    Kubernetes:Google开源的的容器编排工具

    1.k8s简单概述

    kubernetes,是一个全新的基于容器技术的分布式架构领先方案,是谷歌严格保密十几年的秘密武器----Borg系统的一个开源版本,于2014年9月发布第一个版本,2015年7月发布第一个正式版本

    使用k8s进行容器化应用部署,及使用k8s的目标是使容器化应用部署及扩容更加简洁和高效

    2.k8s的功能及特性

    1)自动装箱:基于容器对应用运行环境的资源配置要求自动部署应用容器

    2)自我修复:一旦某一个容器崩溃,能够在短时间内迅速启动新的容器,回复业务!当容器未通过监控检查时,会关闭容器直到容器正常运行,才对外提供服务

    自动修复

    3)水平扩展:可以根据需要,自动对集群中正在运行的容器数量进行调整

    水平扩展

    4)服务发现:服务可以通过自动发现的形式找到它所依赖的服务

    5)滚动更新与回退:可以根据应用的变化,对应用容器运行的应用,进行一次性或批量的更新和回退

    6)负载均衡:如果一个服务起动了多个容器,能够自动实现请求的负载均衡

    7)存储编排:可以根据容器自身的需求自动创建存储卷,可以访问外部存储

    8)批量部署:可以使用计划任务和批量操作

    2.k8s架构组件

    完整架构图 请求架构图

    一个kubernetes集群主要是由控制节点(master)、工作节点(node)构成,每个节点上都会安装不同的组件。

    1)master:集群的控制平面,负责集群的决策 ( 管理 )

    ApiServer : 资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册和发现等机制

    Scheduler : 负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上。(算哪个节点资源用的少,部署上去)

    ControllerManager : 负责维护集群的状态,比如程序部署安排、故障检测、自动扩展、滚动更新等(部署和维护的)

    Etcd :负责存储集群中各种资源对象的信息

    master结构图

    2)node:集群的数据平面,负责为容器提供运行环境 ( 干活 )

    Kubelet : 【master派到node节点的代表】负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器

    KubeProxy : 【提供网络代理】负责提供集群内部的服务发现和负载均衡

    Docker : 负责节点上容器的各种操作

    node结构图

    3)容器运行环境【Container Runtime

    容器运行环境是负责运行容器的软件

    Kubernetes支持多个容器运行环境:Docker、containerd、cri-o、rktlet以及任何实现Kubernetes CRI (容器运行环境接口) 的软件。

    4)fluentd:是一个守护进程,它有助于提升集群层面日志

    3.k8s核心概念

    1)pod:

          k8s中最小的部署单元,容器都是运行在pod中的,一个pod中可以有1个或者多个容器,一个pod的容器时共享网络的,生命周期时短暂的

    2)controller【创建pod】:

        确保预期的pod副本的数量,无状态应用部署,有状态应用部署(有特定的存储及访问地址),确保所有的node运行同一个pod,一次性任务和定时任务

    3)service:定义一组pod的访问规则,支持多种方式【ClusterIP、NodePort、LoadBalancer】

    4)Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签

    5)NameSpace:命名空间,用来隔离pod的运行环境(同个命名空间里的pod可以相互访问)

    6)Volume:声明在Pod容器中可访问的文件目录,可以被挂载到Pod中一个或多个容器指定路径下

    支持多种后端存储抽象【本地存储、分布式存储、云存储】

    7)Deployment:定义一组Pod副本数目,版本等

    通过控制器【Controller】维持Pod数目【自动回复失败的Pod】

    通过控制器以指定的策略控制版本【滚动升级、回滚等】

    8)api:Kubernetes的API来操作整个集群

    同时可以通过 kubectl 、ui、curl 最终发送 http + json/yaml 方式的请求给API Server,然后控制整个K8S集群,K8S中所有的资源对象都可以采用 yaml 或 json 格式的文件定义或描述

    4.k8容器部署流程

    1)通过Kubectl提交一个创建RC(Replication Controller)的请求,该请求通过APlserver写入etcd

    2)此时Controller Manager通过API Server的监听资源变化的接口监听到此RC事件,分析之后,发现当前集群中还没有它所对应的Pod实例

    3)于是根据RC里的Pod模板定义一个生成Pod对象,通过APIServer写入etcd

    4)此事件被Scheduler发现,它立即执行执行一个复杂的调度流程,为这个新的Pod选定一个落户的Node,然后通过API Server讲这一结果写入etcd中

    5)目标Node上运行的Kubelet进程通过APiserver监测到这个"新生的Pod.并按照它的定义,启动该Pod并任劳任怨地负责它的下半生,直到Pod的生命结束

    6)通过Kubectl提交一个新的映射到该Pod的Service的创建请求

    7)ControllerManager通过Label标签查询到关联的Pod实例,然后生成Service的Endpoints信息,并通过APIServer写入到etod中

    8)所有Node上运行的Proxy进程通过APIServer查询并监听Service对象与其对应的Endponts信息,建立一个软件方式的负载均衡器来实现Service访问到后端Pod的流量转发功能

    5.部署应用流程介绍

    以部署一个nginx服务来说明kubernetes系统各个组件调用关系:

    首先要明确,一旦kubernetes环境启动之后,master和node都会将自身的信息存储到etcd数据库中

    1)一个nginx服务的安装请求会首先被发送到master节点的apiServer组件

    2)apiServer组件会调用scheduler组件来决定到底应该把这个服务安装到哪个node节点上

    在此时,它会从etcd中读取各个node节点的信息,然后按照一定的算法进行选择,并将结果告知apiServer

    3)apiServer调用controller-manager去调度Node节点安装nginx服务

    4)kubelet接收到指令后,会通知docker,然后由docker来启动一个nginx的pod

    pod是kubernetes的最小操作单元,容器必须跑在pod中

    5)nginx服务就运行了,如果需要访问nginx,就需要通过kube-proxy来对pod产生访问的代理

    这样,外界用户就可以访问集群中的nginx服务了

    相关文章

      网友评论

        本文标题:k8s 基础概念及架构

        本文链接:https://www.haomeiwen.com/subject/ojfvaltx.html