c4rt1y

lvs实现负载均衡

0x01 负载均衡LVS基本介绍

LB集群的架构和原理很简单,就是当用户的请求过来时,会直接分发到Director Server上,然后它把用户的请求根据设置好的调度算法,智能均衡地分发到后端真正服务器(real server)上。为了避免不同机器上用户请求得到的数据不一样,需要用到了共享存储,这样保证所有用户请求的数据是一样的。

LVS是 Linux Virtual Server 的简称,也就是Linux虚拟服务器。这是一个由章文嵩博士发起的一个开源项目,它的官方网站是 http://www.linuxvirtualserver.org 现在 LVS 已经是 Linux 内核标准的一部分。使用 LVS 可以达到的技术目标是:通过 LVS 达到的负载均衡技术和 Linux 操作系统实现一个高性能高可用的 Linux 服务器集群,它具有良好的可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的性能。LVS 是一个实现负载均衡集群的开源软件项目,LVS架构从逻辑上可分为调度层、Server集群层和共享存储。

0x02 LVS的基本工作原理

lvs_nat_operational_principle

1. 当用户向负载均衡调度器(Director Server)发起请求,调度器将请求发往至内核空间
2. PREROUTING链首先会接收到用户请求,判断目标IP确定是本机IP,将数据包发往INPUT链
3. IPVS是工作在INPUT链上的,当用户请求到达INPUT时,IPVS会将用户请求和自己已定义好的集群服务进行比对,如果用户请求的就是定义的集群服务,那么此时IPVS会强行修改数据包里的目标IP地址及端口,并将新的数据包发往POSTROUTING链
4. POSTROUTING链接收数据包后发现目标IP地址刚好是自己的后端服务器,那么此时通过选路,将数据包最终发送给后端的服务器

0x03 LVS的组成

LVS 由2部分程序组成,包括 ipvs 和 ipvsadm。

1. ipvs(ip virtual server):一段代码工作在内核空间,叫ipvs,是真正生效实现调度的代码。
2. ipvsadm:另外一段是工作在用户空间,叫ipvsadm,负责为ipvs内核框架编写规则,定义谁是集群服务,而谁是后端真实的服务器(Real Server)

0x04 LVS相关术语

1. DS:Director Server。指的是前端负载均衡器节点。
2. RS:Real Server。后端真实的工作服务器。
3. VIP:向外部直接面向用户请求,作为用户请求的目标的IP地址。
4. DIP:Director Server IP,主要用于和内部主机通讯的IP地址。
5. RIP:Real Server IP,后端服务器的IP地址。
6. CIP:Client IP,访问客户端的IP地址。

0x05 LVS/NAT原理和特点

1. 重点理解NAT方式的实现原理和数据包的改变。

new-centos

(a). 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP
(b). PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c). IPVS比对数据包请求的服务是否为集群服务,若是,修改数据包的目标IP地址为后端服务器IP,然后将数据包发至POSTROUTING链。 此时报文的源IP为CIP,目标IP为RIP
(d). POSTROUTING链通过选路,将数据包发送给Real Server
(e). Real Server比对发现目标为自己的IP,开始构建响应报文发回给Director Server。 此时报文的源IP为RIP,目标IP为CIP
(f). Director Server在响应客户端前,此时会将源IP地址修改为自己的VIP地址,然后响应给客户端。 此时报文的源IP为VIP,目标IP为CIP

2. LVS-NAT模型的特性
    2.1 RS应该使用私有地址,RS的网关必须指向DIP
    2.2 DIP和RIP必须在同一个网段内
    2.3 请求和响应报文都需要经过Director Server,高负载场景中,Director Server易成为性能瓶颈
    2.4 支持端口映射
    2.5 RS可以使用任意操作系统
    2.6 缺陷:对Director Server压力会比较大,请求和响应都需经过director server

0x06 LVS/DR原理和特点

1. 重将请求报文的目标MAC地址设定为挑选出的RS的MAC地址

new-centos

(a) 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP
(b) PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c) IPVS比对数据包请求的服务是否为集群服务,若是,将请求报文中的源MAC地址修改为DIP的MAC地址,将目标MAC地址修改RIP的MAC地址,然后将数据包发至POSTROUTING链。 此时的源IP和目的IP均未修改,仅修改了源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址
(d) 由于DS和RS在同一个网络中,所以是通过二层来传输。POSTROUTING链检查目标MAC地址为RIP的MAC地址,那么此时数据包将会发至Real Server。
(e) RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文。处理完成之后,将响应报文通过lo接口传送给eth0网卡然后向外发出。 此时的源IP地址为VIP,目标IP为CIP
(f) 响应报文最终送达至客户端

2. LVS-DR模型的特性
    2.1 特点1:保证前端路由将目标地址为VIP报文统统发给Director Server,而不是RS
    2.2 RS可以使用私有地址;也可以是公网地址,如果使用公网地址,此时可以通过互联网对RIP进行直接访问
    2.3 RS跟Director Server必须在同一个物理网络中
    2.4 所有的请求报文经由Director Server,但响应报文必须不能进过Director Server
    2.5 不支持地址转换,也不支持端口映射
    2.6 RS可以是大多数常见的操作系统
    2.7 RS的网关绝不允许指向DIP(因为我们不允许他经过director)
    2.8 RS上的lo接口配置VIP的IP地址
    2.9 缺陷:RS和DS必须在同一机房中

3. 特点1的解决方案:
    3.1 在前端路由器做静态地址路由绑定,将对于VIP的地址仅路由到Director Server
    3.2 存在问题:用户未必有路由操作权限,因为有可能是运营商提供的,所以这个方法未必实用
    3.3 arptables:在arp的层次上实现在ARP解析时做防火墙规则,过滤RS响应ARP请求。这是由iptables提供的
    3.4 修改RS上内核参数(arp_ignore和arp_announce)将RS上的VIP配置在lo接口的别名上,并限制其不能响应对VIP地址解析请求。

0x07 LVS/Tun原理和特点

在原有的IP报文外再次封装多一层IP首部,内部IP首部(源地址为CIP,目标IIP为VIP),外层IP首部(源地址为DIP,目标IP为RIP)

new-centos

(a) 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP 。
(b) PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c) IPVS比对数据包请求的服务是否为集群服务,若是,在请求报文的首部再次封装一层IP报文,封装源IP为为DIP,目标IP为RIP。然后发至POSTROUTING链。 此时源IP为DIP,目标IP为RIP
(d) POSTROUTING链根据最新封装的IP报文,将数据包发至RS(因为在外层封装多了一层IP首部,所以可以理解为此时通过隧道传输)。 此时源IP为DIP,目标IP为RIP
(e) RS接收到报文后发现是自己的IP地址,就将报文接收下来,拆除掉最外层的IP后,会发现里面还有一层IP首部,而且目标是自己的lo接口VIP,那么此时RS开始处理此请求,处理完成之后,通过lo接口送给eth0网卡,然后向外传递。 此时的源IP地址为VIP,目标IP为CIP
(f) 响应报文最终送达至客户端

LVS-Tun模型特性
    RIP、VIP、DIP全是公网地址
    RS的网关不会也不可能指向DIP
    所有的请求报文经由Director Server,但响应报文必须不能进过Director Server
    不支持端口映射
    RS的系统必须支持隧道

企业中最常用的是 DR 实现方式,而 NAT 配置上比较简单和方便,后边实践中会总结 DR 和 NAT 具体使用配置过程。

0x08 LVS的八种调度算法

1. 轮叫调度 rr
这种算法是最简单的,就是按依次循环的方式将请求调度到不同的服务器上,该算法最大的特点就是简单。轮询算法假设所有的服务器处理请求的能力都是一样的,调度器会将所有的请求平均分配给每个真实服务器,不管后端 RS 配置和处理能力,非常均衡地分发下去。

2. 加权轮叫 wrr
这种算法比 rr 的算法多了一个权重的概念,可以给 RS 设置权重,权重越高,那么分发的请求数越多,权重的取值范围 0 – 100。主要是对rr算法的一种优化和补充, LVS 会考虑每台服务器的性能,并给每台服务器添加要给权值,如果服务器A的权值为1,服务器B的权值为2,则调度到服务器B的请求会是服务器A的2倍。权值越高的服务器,处理的请求越多。

3. 最少链接 lc
这个算法会根据后端 RS 的连接数来决定把请求分发给谁,比如 RS1 连接数比 RS2 连接数少,那么请求就优先发给 RS1 

4. 加权最少链接 wlc
这个算法比 lc 多了一个权重的概念。

5. 基于局部性的最少连接调度算法 lblc
这个算法是请求数据包的目标 IP 地址的一种调度算法,该算法先根据请求的目标 IP 地址寻找最近的该目标 IP 地址所有使用的服务器,如果这台服务器依然可用,并且有能力处理该请求,调度器会尽量选择相同的服务器,否则会继续选择其它可行的服务器

6. 复杂的基于局部性最少的连接算法 lblcr
记录的不是要给目标 IP 与一台服务器之间的连接记录,它会维护一个目标 IP 到一组服务器之间的映射关系,防止单点服务器负载过高。

7. 目标地址散列调度算法 dh
该算法是根据目标 IP 地址通过散列函数将目标 IP 与服务器建立映射关系,出现服务器不可用或负载过高的情况下,发往该目标 IP 的请求会固定发给该服务器。

8. 源地址散列调度算法 sh
与目标地址散列调度算法类似,但它是根据源地址散列算法进行静态分配固定的服务器资源。

0x09 实践lvs/nat模式(centos6)

#1.IP设置
master
    eth0 10.10.10.10
    eth1 20.20.20.20 
slave1
    eth0        10.10.10.11
    网管设置    10.10.10.10
slvae2
    eth0        10.10.10.12
    网管设置    10.10.10.10


#2.安装软件
#slave1 和slave2
yum install httpd -y

#master
yum install ipvsadm -y

#3.配置软件
#master
vi /usr/local/sbin/lvs_nat.sh
{
# vim /usr/local/sbin/lvs_nat.sh
# 编辑写入如下内容:
#! /bin/bash
# director服务器上开启路由转发功能:
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭 icmp 的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/eth0/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/eth1/send_redirects
# director设置 nat 防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 10.10.10.0/24 -j MASQUERADE
# director设置 ipvsadm
IPVSADM='/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 20.20.20.20:80 -s wrr
$IPVSADM -a -t 20.20.20.20:80 -r 10.10.10.11:80 -m -w 1
$IPVSADM -a -t 20.20.20.20:80 -r 10.10.10.12:80 -m -w 1
}

#执行sh脚本
bash /usr/local/sbin/lvs_nat.sh

#4.测试
#slave1上
echo "10.10.10.11" >/usr/share/nginx/html/index.html

#slave2上
echo "10.10.10.12" >/usr/share/nginx/html/index.html

#连续两次curl,发现进行循环访问11和12服务器
curl 20.20.20.20
curl 20.20.20.20

0x10 lvs/dr模式(centos6)

#1.实验环境
master
        eth0            10.10.10.10
        vip eth0:0      10.10.10.200
slave1 
        eth0            10.10.10.11
        vip lo:0        10.10.10.200
slave2  
        eth0            10.10.10.12
        vip lo:0        10.10.10.200

#2.安装
#slave1和slave2安装
yum install -y nginx

#master安装
yum install ipvsadm -y

#3.配置
#master上配置脚本
vi /usr/local/sbin/lvs_dr.sh
{
# vim /usr/local/sbin/lvs_dr.sh
#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/sbin/ipvsadm
vip=10.10.10.200
rs1=10.10.10.11
rs2=10.10.10.12
ifconfig eth0:0 down
ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev eth0:0
$ipv -C
$ipv -A -t $vip:80 -s wrr 
$ipv -a -t $vip:80 -r $rs1:80 -g -w 3
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1
}

#执行sh脚本
bash /usr/local/sbin/lvs_dr.sh

#slave1和slave2上配置脚本
vi /usr/local/sbin/lvs_dr_rs.sh
{
# vim /usr/local/sbin/lvs_dr_rs.sh
#! /bin/bash
vip=10.10.10.200
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
}
bash /usr/local/sbin/lvs_dr_rs.sh

#4.测试
#slave1上
echo "10.10.10.11" >/usr/share/nginx/html/index.html

#slave2上
echo "10.10.10.12" >/usr/share/nginx/html/index.html

#连续两次curl,发现进行循环访问11和12服务器
curl 10.10.10.200
curl 10.10.10.200

0x11 keepalived + lvs 负载均衡(centos6)

#1.环境说明
    master1
            eth0    10.10.10.10
            vip eth0:0      10.10.10.200
    master2
            eth0    10.10.10.14
            vip eth0:0      10.10.10.200
    slave1
            eth0    10.10.10.11
            vip eth0:0      10.10.10.200
    slave2
            eth0    10.10.10.12
            vip eth0:0      10.10.10.200

#2.环境安装

#slave1和slave2上配置脚本
vi /usr/local/sbin/lvs_dr_rs.sh
{
# vim /usr/local/sbin/lvs_dr_rs.sh
#! /bin/bash
vip=10.10.10.200
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
}
bash /usr/local/sbin/lvs_dr_rs.sh

#master1和master2上
yum install ipvsadm keepalived -y

#slave1和slave2上
yum install httpd -y

#3.配置文件
#在master1上
vi /etc/keepalived/keepalived.conf
{
#vi /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 100        #权重
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        10.10.10.200
    }
}

virtual_server 10.10.10.200 80 {
    delay_loop 6            #每隔6秒查询realserver状态
    lb_algo rr      #lvs算法
    lb_kind DR      #Direct Route
    persistence_timeout 60   #统一IP连接60秒分配到同一台realserver上
    protocol TCP    #用TCP协议检查realserver状态

    real_server 10.10.10.11 80 {
        weight 1            #权重
        TCP_CHECK {
            connect_timeout 10  #10秒无反应超时
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }

    real_server 10.10.10.12 80 {
        weight 1
        TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }
}
}

#在master2上
vi /etc/keepalived/keepalived.conf
{
#vi /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {
    state BACKUP        #改成BACKUP
    interface eth0
    virtual_router_id 51
    priority 90         #改成90,权重小于master1
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        10.10.10.200
    }
}

virtual_server 10.10.10.200 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 0
    protocol TCP

    real_server 10.10.10.11 80 {
        weight 1
        TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }

    real_server 10.10.10.12 80 {
        weight 1
        TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
        }
    }
}
}

#master1和master2上开启转发
echo 1 > /proc/sys/net/ipv4/ip_forward

#启动keepalived
service keepalived start


#4.测试
#slave1上
echo "10.10.10.11" >/usr/share/nginx/html/index.html

#slave2上
echo "10.10.10.12" >/usr/share/nginx/html/index.html

#连续两次curl,发现进行循环访问11和12服务器
curl 10.10.10.200
curl 10.10.10.200

0x12 资料来源

阿铭培训第三期
http://www.cnblogs.com/liwei0526vip/p/6370103.html
GoTop