美文网首页
LVS模式及算法

LVS模式及算法

作者: PennLi | 来源:发表于2017-03-29 15:54 被阅读99次

    什么是集群

    一种计算机系统,通过一组松散集成的计算机软件或硬件连接起来高度紧密地协作完成计算工作。

    可被看作是一台计算机。

    集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式。
    集群计算机通常用来改进单个计算机的计算速度和可靠性。

    LVS在企业架构中的位置:

    LVS keepalived做负载均衡

    以上的架构只是众多企业里面的一种而已。

    绿色线就是用户访问请求的数据流向:

    用户-->LVS负载均衡服务器--->apahce服务器--->MySQL服务器&memcache服务器&共享存储服务器。并且我们的mysql、共享存储也能够使用LVS再进行负载均衡。

    集群分类

    按照功能和结构一般分成以下几类:

    1)负载均衡集群(Loadbalancingclusters)简称LBC
    
    2)高可用性集群(High-availabilityclusters)简称HAC
    
    3)高性能计算集群(High-perfomanceclusters)简称HPC
    
    4)网格计算(Gridcomputing)
    

    网络上面一般认为是有三个,负载均衡和高可用集群是互联网行业常用的集群架构。

    (1)负载均衡集群

    负载均衡集群把很多客户集中访问的请求负载压力可能尽可能平均的分摊到计算机集群中处理。

    客户请求负载通常包括应用程度处理负载和网络流量负载。

    每个节点都可以承担一定的访问请求负载压力,并且可以实现访问请求在各节点之间动态分配,以实现负载均衡。

    负载均衡运行时,一般通过一个或多个前端负载均衡器将客户访问请求分发到后端一组服务器上,从而达到整个系统的高性能和高可用性。

    负载均衡集群作用

    1)分担访问流量(负载均衡)
    
    2)保持业务的连续性(高可用)
    

    (2)高可用性集群

    类似是集群中运行着两个或两个以上的一样的节点,当某个主节点出现故障的时候,那么其他作为从 节点的节点就会接替主节点上面的任务。从节点可以接管主节点的资源(IP地址,架构身份等),此时用户不会发现提供服务的对象从主节点转移到从节点。

    高可用性集群的作用:当一个机器宕机另一台进行接管。

    比较常用的高可用集群开源软件有:
    keepalive,heardbeat

    (3)高性能计算集群

    常用集群软硬件

    开源集群软件

    lvs
    keepalived
    haproxy
    nginx
    apache
    heartbeat
    

    商业集群硬件:

    F5
    Netscaler
    Radware
    A10
    

    二、LVS负载均衡集群

    作用:

    廉价、有效、透明方法,扩展网络设备和服务器的负载带宽、增加吞吐量,加强网络数据处理能力、提高网络的灵活性和可用性。

    1)把单台计算机无法承受的大规模的并发访问或数据流量分担到多台节点设备上分别处理,
    减少用户等待响应的时间,提升用户体验。
    
    2)单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,
    将结果汇总,返回给用户,系统处理能力得到大幅度提高。
    
    3)7*24小时的服务保证,任意一个或多个设备节点设备宕机,不能影响到业务。
    在负载均衡集群中,所有计算机节点都应该提供相同的服务,集群负载均衡获取所有对该服务的如站请求。
    

    LVS介绍

    LVS是linux virtual server的简写linux虚拟服务器,是一个虚拟的服务器集群系统,可以在unix/linux平台下实现负载均衡集群功能。该项目在1998年5月由章文嵩博士组织成立。

    以下是LVS官网提供的4篇文章:

    http://www.linuxvirtualserver.org/zh/lvs1.html
    
    http://www.linuxvirtualserver.org/zh/lvs2.html
    
    http://www.linuxvirtualserver.org/zh/lvs3.html
    
    http://www.linuxvirtualserver.org/zh/lvs4.html
    

    IPVS发展史

    2.2内核时,IPVS就已经以内核补丁的形式出现。
    
    从2.4.23版本开始ipvs软件就是合并到linux内核的常用版本的内核补丁的集合。
    
    从2.4.24以后IPVS已经成为linux官方标准内核的一部分
    
    LVS

    lpvs是工作在内核层,我们不能够直接操作ipvs,vs负载均衡调度技术是在linux内核中实现的。因此,被称之为linux虚拟服务器。我们使用该软件配置lvs的时候,不能直接配置内核中的ipvs,而需要使用ipvs的管理工具ipvsadm进行管理。通过keepalived也可以管理LVS。

    LVS虚拟服务器的体系如下图,一组服务器通过高速的局域网或者地理分布的广域网相互连接,在这组服务器之前有一个负载调度器(load balance)。负载调度器负责将客户的请求调度到真实服务器上。这样这组服务器集群的结构对用户来说就是透明的。客户访问集群系统就如只是访问一台高性能,高可用的服务器一样。客户程序不受服务器集群的影响,不做任何修改。

    官网结构图:

    LVS

    LVS工作过程

    客户请发送向负载均衡服务器发送请求。负载均衡器接受客户的请求,然后先是根据LVS的调度算法(8种)来决定要将这个请求发送给哪个节点服务器。然后依据自己的工作模式(3种)来看应该如何把这些客户的请求如何发送给节点服务器,节点服务器又应该如何来把响应数据包发回给客户端。

    LVS三种工作模式

    1)VS/NAT模式(Network address translation)
    
    2)VS/TUN模式(tunneling)
    
    3)DR模式(Direct routing)
    

    1、NAT模式-网络地址转换

    Virtualserver via Network address translation(VS/NAT)

    通过网络地址转换实现调度。

    调度过程IP包详细图:

    原理简述:
    1)客户端请求数据,目标IP为VIP;
    
    2)请求数据到达LB服务器,LB根据调度算法将目的地址修改为RIP地址及对应端口(此RIP地址是根据调度算法得出的。)并在连接HASH表中记录下这个连接;
    
    3)数据包从LB服务器到达RS服务器webserver,然后webserver进行响应。Webserver的网关必须是LB,然后将数据返回给LB服务器;
    
    4)收到RS的返回后的数据,根据连接HASH表修改源地址VIP&目标地址CIP,及对应端口80.然后数据就从LB出发到达客户端;
    
    5)客户端收到的就只能看到VIP\DIP信息。
    
    NAT优缺点:
    1、NAT技术将请求的报文和响应的报文都需要通过LB进行地址改写,因此网站访问量比较大的时候LB负载均衡调度器有比较大的瓶颈,一般要求最多之能10-20台节点
    
    2、只需要在LB上配置一个公网IP地址就可以了。
    
    3、每台内部的节点服务器的网关地址必须是调度器LB的内网地址。
    
    4、NAT模式支持对IP地址和端口进行转换。即用户请求的端口和真实服务器的端口可以不一致。
    

    2、TUN模式

    virtual server via ip tunneling模式:
    采用NAT模式时,由于请求和响应的报文必须通过调度器地址重写,当客户请求越来越多时,调度器处理能力将成为瓶颈。

    为了解决这个问题,调度器把请求的报文通过IP隧道转发到真实的服务器。

    真实的服务器将响应处理后的数据直接返回给客户端。这样调度器就只处理请求入站报文.

    由于一般网络服务应答数据比请求报文大很多,采用VS/TUN模式后,集群系统的最大吞吐量可以提高10倍。

    VS/TUN的工作流程图如下所示,它和NAT模式不同的是,它在LB和RS之间的传输不改写IP地址。而是把客户请求包封装在一个IP tunnel里面,然后发送给RS节点服务器,节点服务器接收到之后解开IP tunnel后,进行响应处理。并且直接把包通过自己的外网地址发送给客户不用经过LB服务器。

    原理:

    原理简述:
    1)客户请求数据包,目标地址VIP发送到LB上;
    
    2)LB接收到客户请求包,进行IP Tunnel封装。即在原有的包头加上IP Tunnel的包头。然后发送出去;
    
    3)RS节点服务器根据IP Tunnel包头信息(此时就又一种逻辑上的隐形隧道,只有LB和RS之间懂)收到请求包,然后解开IP Tunnel包头信息,得到客户的请求包并进行响应处理;
    
    4)响应处理完毕之后,RS服务器使用自己的出公网的线路,将这个响应数据包发送给客户端。源IP地址还是VIP地址。
    

    3、DR模式(直接路由模式)

    Virtual server via direct routing (vs/dr)

    通过改写请求报文的目标MAC地址,将请求发给真实服务器的,而真实服务器响应后的处理结果直接返回给客户端用户。

    同TUN模式一样,DR模式可以极大的提高集群系统的伸缩性。而且DR模式没有IP隧道的开销,对集群中的真实服务器也没有必要必须支持IP隧道协议的要求。但是要求调度器LB与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境。

    DR模式是互联网使用比较多的一种模式。

    DR模式原理图:

    原理简述:

    它的连接调度和管理与NAT和TUN中的一样,报文转发方法和前两种不同。

    DR模式将报文直接路由给目标真实服务器。

    在DR模式中,调度器根据各个真实服务器的负载情况,连接数多少等,动态地选择一台服务器,不修改目标IP地址和目标端口,也不封装IP报文,而是将请求报文的数据帧的目标MAC地址改为真实服务器的MAC地址。

    然后再将修改的数据帧在服务器组的局域网上发送。因为数据帧的MAC地址是真实服务器的MAC地址,并且又在同一个局域网。那么根据局域网的通讯原理,真实复位是一定能够收到由LB发出的数据包。

    真实服务器接收到请求数据包的时候,解开IP包头查看到的目标IP是VIP。(此时只有自己的IP符合目标IP才会接收进来,所以我们需要在本地的回环借口上面配置VIP。

    另:由于网络接口都会进行ARP广播响应,但集群的其他机器都有这个VIP的lo接口,都响应就会冲突。所以我们需要把真实服务器的lo接口的ARP响应关闭掉。)然后真实服务器做成请求响应,之后根据自己的路由信息将这个响应数据包发送回给客户,并且源IP地址还是VIP。

    DR模式小结
    1、通过在调度器LB上修改数据包的目的MAC地址实现转发。注意源地址仍然是CIP,目的地址仍然是VIP地址。
    
    2、请求的报文经过调度器,而RS响应处理后的报文无需经过调度器LB,因此并发访问量大时使用效率很高(和NAT模式比)
    
    3、因为DR模式是通过MAC地址改写机制实现转发,因此所有RS节点和调度器LB只能在一个局域网里面
    
    4、RS主机需要绑定VIP地址在LO接口上,并且需要配置ARP抑制。
    
    5、RS节点的默认网关不需要配置成LB,而是直接配置为上级路由的网关,能让RS直接出网就可以。
    
    6、由于DR模式的调度器仅做MAC地址的改写,所以调度器LB就不能改写目标端口,那么RS服务器就得使用和VIP相同的端口提供服务。
    
    LVS三模式

    LVS调度算法

    参考此文章:http://www.linuxvirtualserver.org/zh/lvs4.html

    Lvs的调度算法决定了如何在集群节点之间分布工作负荷。当director调度器收到来自客户端访问VIP的上的集群服务的入站请求时,director调度器必须决定哪个集群节点应该处理请求。

    Director调度器调度方法分两类:

    固定调度算法:
    rr
    wrr
    dh
    sh
    
    动态调度算法:
    wlc
    lc
    lblc
    lblcr
    
    LVS八算法

    LVS调度算法生产环境选型:

    1、一般网络服务,如http,mail,mysql等常用的LVS调度算法为:
    a.基本轮询调度rr
    
    b.加权最小连接调度wlc
    
    c.加权轮询调度wrc
    
    2、基于局部性最小连接lblc、带复制给予局部性最小连接lblcr 适用于web cache、DB cache;
    3、源地址散列调度SH、目标地址散列调度DH 结合使用在防火墙集群中,可保证整个系统的出入口唯一

    实际适用中这些算法的适用范围很多,工作中最好参考内核中的连接调度算法的实现原理,然后根据具体的业务需求合理的选型。

    转载于http://www.it165.net/admin/html/201401/2248.html

    相关文章

      网友评论

          本文标题:LVS模式及算法

          本文链接:https://www.haomeiwen.com/subject/jktyottx.html