使用LVS实现负载均衡原理及安装配置详细教程

[复制链接]
查看: 1179|回复: 0

23

主题

23

帖子

85

积分

注册会员

Rank: 2

积分
85
发表于 2020-1-13 23:58:23 | 显示全部楼层 |阅读模式
负载均衡集群是 load balance 集群的简写,翻译成中文就是负载均衡集群。常用的负载均衡开源软件有nginx、lvs、haproxy,商业的硬件负载均衡设备F5、Netscale。这里主要是学习 LVS 并对其进行了详细的总结记录。


一、负载均衡LVS基本介绍

LB集群的架构和原理很简单,就是当用户的请求过来时,会直接分发到Director Server上,然后它把用户的请求根据设置好的调度算法,智能均衡地分发到后端真正服务器(real server)上。为了避免不同机器上用户请求得到的数据不一样,需要用到了共享存储,这样保证所有用户请求的数据是一样的。

LVS是 Linux Virtual Server 的简称,也就是Linux虚拟服务器。这是一个由章文嵩博士发起的一个开源项目,它的官方网是 http://www.linuxvirtualserver.org 现在 LVS 已经是 Linux 内核标准的一部分。使用 LVS 可以达到的技术目标是:通过 LVS 达到的负载均衡技术和 Linux 操作系统实现一个高性能高可用的 Linux 服务器集群,它具有良好的可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的性能。LVS 是一个实现负载均衡集群的开源软件项目,LVS架构从逻辑上可分为调度层、Server集群层和共享存储。

二、LVS的基本工作原理
1.jpg

1. 当用户向负载均衡调度器(Director Server)发起请求,调度器将请求发往至内核空间

2. PREROUTING链首先会接收到用户请求,判断目标IP确定是本机IP,将数据包发往INPUT链

3. IPVS是工作在INPUT链上的,当用户请求到达INPUT时,IPVS会将用户请求和自己已定义好的集群服务进行比对,如果用户请求的就是定义的集群服务,那么此时IPVS会强行修改数据包里的目标IP地址及端口,并将新的数据包发往POSTROUTING链

4. POSTROUTING链接收数据包后发现目标IP地址刚好是自己的后端服务器,那么此时通过选路,将数据包最终发送给后端的服务器

三、LVS的组成

LVS 由2部分程序组成,包括 ipvs 和 ipvsadm。

1.ipvs(ip virtual server):一段代码工作在内核空间,叫ipvs,是真正生效实现调度的代码。

2. ipvsadm:另外一段是工作在用户空间,叫ipvsadm,负责为ipvs内核框架编写规则,定义谁是集群服务,而谁是后端真实的服务器(Real Server)

四、LVS相关术语

1. DS:Director Server。指的是前端负载均衡器节点。

2. RS:Real Server。后端真实的工作服务器。
3. VIP:向外部直接面向用户请求,作为用户请求的目标的IP地址。
4. DIP:Director Server IP,主要用于和内部主机通讯的IP地址。
5. RIP:Real Server IP,后端服务器的IP地址。
6. CIP:Client IP,访问客户端的IP地址。

下边是三种工作模式的原理和特点总结。

五、LVS/NAT原理和特点

1. 重点理解NAT方式的实现原理和数据包的改变。

1.jpg

(a). 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP
(b). PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c). IPVS比对数据包请求的服务是否为集群服务,若是,修改数据包的目标IP地址为后端服务器IP,然后将数据包发至POSTROUTING链。 此时报文的源IP为CIP,目标IP为RIP
(d). POSTROUTING链通过选路,将数据包发送给Real Server
(e). Real Server比对发现目标为自己的IP,开始构建响应报文发回给Director Server。 此时报文的源IP为RIP,目标IP为CIP
(f). Director Server在响应客户端前,此时会将源IP地址修改为自己的VIP地址,然后响应给客户端。 此时报文的源IP为VIP,目标IP为CIP


2. LVS-NAT模型的特性

  • RS应该使用私有地址,RS的网关必须指向DIP
  • DIP和RIP必须在同一个网段内
  • 请求和响应报文都需要经过Director Server,高负载场景中,Director Server易成为性能瓶颈
  • 支持端口映射
  • RS可以使用任意操作系统
  • 缺陷:对Director Server压力会比较大,请求和响应都需经过director server

六、LVS/DR原理和特点

1.重将请求报文的目标MAC地址设定为挑选出的RS的MAC地址

(a) 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP
(b) PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链
(c) IPVS比对数据包请求的服务是否为集群服务,若是,将请求报文中的源MAC地址修改为DIP的MAC地址,将目标MAC地址修改RIP的MAC地址,然后将数据包发至POSTROUTING链。 此时的源IP和目的IP均未修改,仅修改了源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址
(d) 由于DS和RS在同一个网络中,所以是通过二层来传输。POSTROUTING链检查目标MAC地址为RIP的MAC地址,那么此时数据包将会发至Real Server。
(e) RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文。处理完成之后,将响应报文通过lo接口传送给eth0网卡然后向外发出。 此时的源IP地址为VIP,目标IP为CIP
(f) 响应报文最终送达至客户端

2. LVS-DR模型的特性

  • 特点1:保证前端路由将目标地址为VIP报文统统发给Director Server,而不是RS
  • RS可以使用私有地址;也可以是公网地址,如果使用公网地址,此时可以通过互联网对RIP进行直接访问
  • RS跟Director Server必须在同一个物理网络中
  • 所有的请求报文经由Director Server,但响应报文必须不能进过Director Server
  • 不支持地址转换,也不支持端口映射
  • RS可以是大多数常见的操作系统
  • RS的网关绝不允许指向DIP(因为我们不允许他经过director)
  • RS上的lo接口配置VIP的IP地址
  • 缺陷:RS和DS必须在同一机房中

3. 特点1的解决方案:

  • 在前端路由器做静态地址路由绑定,将对于VIP的地址仅路由到Director Server
  • 存在问题:用户未必有路由操作权限,因为有可能是运营商提供的,所以这个方法未必实用
  • arptables:在arp的层次上实现在ARP解析时做防火墙规则,过滤RS响应ARP请求。这是由iptables提供的
  • 修改RS上内核参数(arp_ignore和arp_announce)将RS上的VIP配置在lo接口的别名上,并限制其不能响应对VIP地址解析请求。

七、LVS/Tun原理和特点

在原有的IP报文外再次封装多一层IP首部,内部IP首部(源地址为CIP,目标IIP为VIP),外层IP首部(源地址为DIP,目标IP为RIP)

1.jpg

(a) 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP 。

(b) PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链

(c) IPVS比对数据包请求的服务是否为集群服务,若是,在请求报文的首部再次封装一层IP报文,封装源IP为为DIP,目标IP为RIP。然后发至POSTROUTING链。 此时源IP为DIP,目标IP为RIP

(d) POSTROUTING链根据最新封装的IP报文,将数据包发至RS(因为在外层封装多了一层IP首部,所以可以理解为此时通过隧道传输)。 此时源IP为DIP,目标IP为RIP

(e) RS接收到报文后发现是自己的IP地址,就将报文接收下来,拆除掉最外层的IP后,会发现里面还有一层IP首部,而且目标是自己的lo接口VIP,那么此时RS开始处理此请求,处理完成之后,通过lo接口送给eth0网卡,然后向外传递。 此时的源IP地址为VIP,目标IP为CIP

(f) 响应报文最终送达至客户端

LVS-Tun模型特性

  • RIP、VIP、DIP全是公网地址
  • RS的网关不会也不可能指向DIP
  • 所有的请求报文经由Director Server,但响应报文必须不能进过Director Server
  • 不支持端口映射
  • RS的系统必须支持隧道
其实企业中最常用的是 DR 实现方式,而 NAT 配置上比较简单和方便,后边实践中会总结 DR 和 NAT 具体使用配置过程。

八、LVS的八种调度算法

1.轮叫调度 rr

这种算法是最简单的,就是按依次循环的方式将请求调度到不同的服务器上,该算法最大的特点就是简单。轮询算法假设所有的服务器处理请求的能力都是一样的,调度器会将所有的请求平均分配给每个真实服务器,不管后端 RS 配置和处理能力,非常均衡地分发下去。


2. 加权轮叫 wrr


这种算法比 rr 的算法多了一个权重的概念,可以给 RS 设置权重,权重越高,那么分发的请求数越多,权重的取值范围 0 – 100。主要是对rr算法的一种优化和补充, LVS 会考虑每台服务器的性能,并给每台服务器添加要给权值,如果服务器A的权值为1,服务器B的权值为2,则调度到服务器B的请求会是服务器A的2倍。权值越高的服务器,处理的请求越多。


3. 最少链接 lc


这个算法会根据后端 RS 的连接数来决定把请求分发给谁,比如 RS1 连接数比 RS2 连接数少,那么请求就优先发给 RS1


4. 加权最少链接 wlc

这个算法比 lc 多了一个权重的概念。


5. 基于局部性的最少连接调度算法 lblc


这个算法是请求数据包的目标 IP 地址的一种调度算法,该算法先根据请求的目标 IP 地址寻找最近的该目标 IP 地址所有使用的服务器,如果这台服务器依然可用,并且有能力处理该请求,调度器会尽量选择相同的服务器,否则会继续选择其它可行的服务器


6. 复杂的基于局部性最少的连接算法 lblcr


记录的不是要给目标 IP 与一台服务器之间的连接记录,它会维护一个目标 IP 到一组服务器之间的映射关系,防止单点服务器负载过高。


7. 目标地址散列调度算法 dh


该算法是根据目标 IP 地址通过散列函数将目标 IP 与服务器建立映射关系,出现服务器不可用或负载过高的情况下,发往该目标 IP 的请求会固定发给该服务器。


8. 源地址散列调度算法 sh

与目标地址散列调度算法类似,但它是根据源地址散列算法进行静态分配固定的服务器资源。

九、实践LVS的NAT模式

1、实验环境


三台服务器,一台作为 director,两台作为 real server,director 有一个外网网卡(172.16.254.200,fec2::22) 和一个内网ip(192.168.0.8,fec9::22),两个 real server 上只有内网 ip (192.168.0.18,fec9::23) 和 (192.168.0.28,fec9::24),并且需要把两个 real server 的内网网关设置为 director 的内网 ip(192.168.0.8)

注释:

(1)ds和rs设置ip地址。---ds需要设置两个,外网ip和内网ip。

这里只讲解设置ipv6.

这里设置外网ip为FEC2::22,内网ip为FEC9::22。并为外网ip设置路由。

设置ipv6地址的方法:

ds:

  1. ifconfig eth0 inet6 add  FEC2::22/64  设置ipv6地址

  2. ifconfig eth0 inet6 add  FEC9::22/64  设置ipv6地址

  3. route -A inet6 add default gw FEC2::1 dev eth0  设置路由(添加ipv6地址后,一定要设置路由,否则无法连接)
复制代码
rs1:
  1. ifconfig eth0 inet6 add  FEC9::23/64  设置ipv6地址
复制代码

rs2:

  1. ifconfig eth0 inet6 add  FEC9::23/64  设置ipv6地址
复制代码

设置外场后,ds可以连接外网,ds也可以连接rs1和rs2.(同一网段直连,无需设置路由。同时,默认路由只能设置一个,若设置临时路由不生效,则设置在配置文件中,即

/etc/sysconfig/network文件中添加IPV6_DEFAULTGW=fec2::1,永久生效

设置完成后,在客户机上ping一下ds和rs,能ping通则证明正常。)

另:ifconfig eth0 inet6 del  FEC9::24/64 删除ipv6地址

(2)rs添加路由命令:

  1. ipv4:route add -host  172.16.100.56 gw 192.168.0.8  dev eth1

  2. ipv6:route -A inet6 add fec4::3 gw fec9::22 dev eth1
复制代码

为rs访问客户机172.16.100.56(fec4::3)添加网关192.168.0.8(fec9::22),即当rs返回响应给客户端172.16.100.56时,会将结果转发到192.168.0.8(ds)上,ds将源ip更改为dip后再将结果发送给客户机。

(192.168.0.8(fec9::22)是DIP)

添加路由后,查看路由:

  1. route -n
复制代码
  1. Kernel IP routing table
  2. Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
  3. 0.0.0.0         192.168.201.254 0.0.0.0         UG    100    0        0 eth0
  4. 172.16.100.56  192.168.0.8  255.255.255.255 UGH   0      0        0 eth0
复制代码

ipv6查看路由时:

  1. route -6
复制代码

可以转发的前提是ds(192.168.0.8)开启路由转发功能,具体参见第2步中的脚本。

这样ds才可以将结果返回给客户机。(原因:客户机ping的时候,rs收到请求,返回响应给客户机时发现有更近的路由跳转,因此必定跳转到ds上,若ds没有转发功能,那么响应则到此为止,无法发送出去,因此会ping不通,网络不通)

添加路由的命令参考Centos 添加静态路由及 SIOCADDRT错误处理

这里添加路由时也可以添加整个网段,比如:route add -net 211.211.10.0 netmask 255.255.255.0 gw 192.168.0.8 dev eth3

需要注意添加网段时要有netmask,添加主机则不需要。添加网段,则代表访问该网段的主机时,都会跳转到192.168.0.8上。

(ipv6添加网段:route -A inet6 add fec4::/64 gw fec9::22)

(2)若ds、rs都只有一个网卡,则可以为三台机器模拟一个内网网段,即通过增加网卡子接口的方式实现。---针对ipv4.

可参考linux子接口以及绑定网卡使用,具体方式在dr模式中有讲解。

即在ds、rs中都新增ifcfg-eth0:0配置文件。然后分别设定ip为192.168.0.8、192.168.0.18和192.168.0.28.设定完成后重启网络服务service network restart。

然后在添加路由,然后在执行脚本。

由于网卡子接口无法设置ipv6,因此可以在一个网卡上设置两个ip,两个ip在不同网段,一个ip设置路由可以连接到外网,另一个ip不设置路由。---ipv6和ipv4都可。

注意:

ds、rs子网卡的ip需要在同一个网段。

执行service network restart后,某些网络配置会还原,比如路由转发功能/proc/sys/net/ipv4/ip_forward的值会变为0。

2、安装和配置

  1. 两个 real server 上都安装 nginx 服务

  2. # yum install -y nginx

  3. (注释:作者是用nginx测试转发是否生效,所以才安装,也可以用其它web服务测试,比如tomcat)

  4. Director 上安装 ipvsadm

  5. # yum install -y ipvsadm
复制代码

Director 上编辑 nat 实现脚本

ipv4:

  1. # vim /usr/local/sbin/lvs_nat.sh

  2. # 编辑写入如下内容:

  3. #! /bin/bash

  4. # director服务器上开启路由转发功能,若没打开则无法将rs的信息转发到客户机:

  5. echo 1 > /proc/sys/net/ipv4/ip_forward

  6. # 关闭 icmp 的重定向

  7. echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects

  8. echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects

  9. echo 0 > /proc/sys/net/ipv4/conf/eth0/send_redirects

  10. echo 0 > /proc/sys/net/ipv4/conf/eth1/send_redirects

  11. # director设置 nat 防火墙

  12. iptables -t nat -F

  13. iptables -t nat -X

  14. iptables -t nat -A POSTROUTING -s 192.168.0.0/24 -j MASQUERADE

  15. # director设置 ipvsadm

  16. IPVSADM='/sbin/ipvsadm'

  17. $IPVSADM -C

  18. $IPVSADM -A -t 172.16.254.200:80 -s wrr

  19. $IPVSADM -a -t 172.16.254.200:80 -r 192.168.0.18:80 -m -w 1

  20. $IPVSADM -a -t 172.16.254.200:80 -r 192.168.0.28:80 -m -w 1
复制代码
ipv6:
  1. # vim /usr/local/sbin/lvs_nat.sh

  2. # 编辑写入如下内容:

  3. #! /bin/bash

  4. # director服务器上开启路由转发功能,若没打开则无法将rs的信息转发到客户机:

  5. echo 1 > /proc/sys/net/ipv6/conf/all/forwarding

  6. # 关闭 icmp 的重定向

  7. echo 0 > /proc/sys/net/ipv6/conf/all/accept_redirects

  8. echo 0 > /proc/sys/net/ipv6/conf/default/accept_redirects

  9. echo 0 > /proc/sys/net/ipv6/conf/eth0/accept_redirects

  10. echo 0 > /proc/sys/net/ipv6/conf/eth1/accept_redirects

  11. # director设置 nat 防火墙

  12. ip6tables -t nat -F

  13. ip6tables -t nat -X

  14. ip6tables -t nat -A POSTROUTING   -s fec3::/64 -j MASQUERADE

  15. # director设置

  16. IPVSADM='/sbin/ipvsadm'

  17. $IPVSADM -C

  18. $IPVSADM -A -t [fec2::22]:80 -s wrr

  19. $IPVSADM -a -t [fec2::22]:80 -r [fec9::23]:80 -m -w 1

  20. $IPVSADM -a -t [fec2::22]:80 -r [fec9::24]:80 -m -w 1
复制代码

注释:参数解析及配置多集群参见dr模式的解析。不同的是,nat模式支持端口映射,即ds端口和rs端口不需要一样,

开启路由转发、关闭重定向相关参见:linux开启内部路由转发、关闭ICMP重定向功能

  1. $IPVSADM -A -t 172.16.254.200:80 -s wrr

  2. $IPVSADM -a -t 172.16.254.200:80 -r 192.168.0.18:9123 -m -w 1

  3. $IPVSADM -a -t 172.16.254.200:80 -r 192.168.0.28:9123 -m -w 1
复制代码

是可以正常工作的。

同样,也支持多集群。

  1. $IPVSADM -A -t 172.16.254.200:80 -s wrr
  2. $IPVSADM -a -t 172.16.254.200:80 -r 192.168.0.18:9123 -m -w 1
  3. $IPVSADM -a -t 172.16.254.200:80 -r 192.168.0.28:9123 -m -w 1
  4. $IPVSADM -A -t 172.16.254.200:8090 -s wrr
  5. $IPVSADM -a -t 172.16.254.200:8090 -r 192.168.0.18:8080 -m -w 1
  6. $IPVSADM -a -t 172.16.254.200:8090 -r 192.168.0.28:8080 -m -w 1
复制代码
保存后,在 Director 上直接运行这个脚本就可以完成 lvs/nat 的配置
  1. /bin/bash /usr/local/sbin/lvs_nat.sh
复制代码
查看ipvsadm设置的规则
  1. ipvsadm -ln
复制代码

3、测试LVS的效果

通过浏览器测试2台机器上的web内容 http://172.16.254.200 。为了区分开,我们可以把 nginx 的默认页修改一下:

(注释:这里就根据自己设定的ip端口进行测试,不一定是nginx,需要在客户机上测试,不要在ds和rs上测试。

访问时,访问vip,即172.16.254.200(ipv6的虚ip fec2::22)

  1. 在 RS1 上执行

  2. # echo "rs1rs1" >/usr/share/nginx/html/index.html


  3. 在 RS2 上执行

  4. # echo "rs2rs2" >/usr/share/nginx/html/index.html
复制代码
注意,切记一定要在两台 RS 上设置网关的 IP 为 director 的内网 IP。

十、实践LVS的DR模式

1、实验环境

ipv4:

三台机器:

  • Director节点:  (eth0 192.168.0.8  vip eth0:0 192.168.0.38)
  • Real server1: (eth0 192.168.0.18 vip lo:0 192.168.0.38)
  • Real server2: (eth0 192.168.0.28 vip lo:0 192.168.0.38)

分别需要配置网卡子接口,方法如下:

假设只有一个网卡eth0.

(1).临时配置,重启后失效

  1. ip addr  add 192.168.0.38/24 dev eth0 label eth0:0

  2. ip addr  add 192.168.0.38/24 dev lo label lo:0
复制代码
(ip addr  del 192.168.201.38/24 dev eth0 label eth0:0 网卡子接口删除(重启后失效))


(2).永久配置,修改相关配置文件(以Directore节点为例)
  1. cp /etc/sysconfig/network-scripts/ifcfg-eth0 /etc/sysconfig/network-scripts/ifcfg-eth0:0
复制代码
修改/etc/sysconfig/network-scripts/ifcfg-eth0:0文件配置中DEVICE(值和配置文件名“-”后面的一致,即网卡名)和IPADDR字段:
  1. DEVICE="eth0:0"

  2. BOOTPROTO="none"

  3. IPADDR="192.168.0.38"

  4. NETMASK="255.255.255.0"

  5. HWADDR="F4:CE:46:B6:3C:24"

  6. IPV6INIT="no"

  7. MTU="1500"

  8. NM_CONTROLLED="no"

  9. ONBOOT="yes"

  10. TYPE="Ethernet"
复制代码
原网卡配置文件:
  1. #cat ifcfg-eth0

  2. DEVICE="eth0"

  3. BOOTPROTO="none"

  4. IPADDR="192.168.101.115"

  5. NETMASK="255.255.255.0"

  6. HWADDR="F4:CE:46:B6:3C:24"

  7. IPV6INIT="no"

  8. MTU="1500"

  9. NM_CONTROLLED="no"

  10. ONBOOT="yes"

  11. TYPE="Ethernet"

  12. UUID="5bbbb611-1bdd-4794-8753-e7077e655cf5"
复制代码
配置完成后,重启网卡:
  1. service network restart
复制代码
然后ifconfig结果如下:
  1. eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
  2.         inet 192.168.201.18  netmask 255.255.255.0  broadcast 192.168.201.255
  3.         inet6 fe80::f8b2:94ff:fe6c:e200  prefixlen 64  scopeid 0x20<link>
  4.         inet6 fec2::22  prefixlen 64  scopeid 0x40<site>
  5.         ether fa:b2:94:6c:e2:00  txqueuelen 1000  (Ethernet)
  6.         RX packets 1933845  bytes 1939419514 (1.8 GiB)
  7.         RX errors 0  dropped 0  overruns 0  frame 0
  8.         TX packets 1712429  bytes 1662326245 (1.5 GiB)
  9.         TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0


  10. eth0:0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
  11.         inet 192.168.0.38  netmask 255.255.255.255  broadcast 192.168.0.38

  12.         ether fa:b2:94:6c:e2:00  txqueuelen 1000  (Ethernet)
复制代码
若想取消,删除该文件,在重启网卡即可。

2、安装
  1. 两个 real server 上都安装 nginx 服务

  2. # yum install -y nginx

  3. (注释:作者这里是用nginx来测试ds是否发送到rs,所以需要安装nginx,也可以安装其他web服务测试,比如tomcat)

  4. Director 上安装 ipvsadm

  5. # yum install -y ipvsadm
复制代码


3、Director 上配置脚本
  1. # vim /usr/local/sbin/lvs_dr.sh

  2. #! /bin/bash

  3. echo 1 > /proc/sys/net/ipv4/ip_forward

  4. ipv=/sbin/ipvsadm

  5. vip=192.168.0.38

  6. rs1=192.168.0.18

  7. rs2=192.168.0.28

  8. #设置ds的ip和路由,也可以先手动设置好

  9. ifconfig eth0:0 down

  10. ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up

  11. route add -host $vip dev eth0:0

  12. $ipv -C

  13. $ipv -A -t $vip:80 -s wrr

  14. $ipv -a -t $vip:80 -r $rs1:80 -g -w 3

  15. $ipv -a -t $vip:80 -r $rs2:80 -g -w 1
复制代码

注释:-g的意思是采用dr模式。

特别需要注意的是端口,DR不支持端口映射,因此rs和ds端口要一样。因此,ds监听端口是80的话,那么rs的监听端口也要是80,若要修改端口则需要同步修改,比如rs的监听端口是8080,那么就要都修改为8080,则变化如下.

  1. $ipv -A -t $vip:8080 -s wrr

  2. $ipv -a -t $vip:8080 -r $rs1:8080 -g -w 3

  3. $ipv -a -t $vip:8080 -r $rs2:8080 -g -w 1
复制代码
参数解析:参见ipvsadm命令使用方法
  1. -A:添加一个集群服务

  2. -t:tcp

  3. -s:指定调度算法

  4. -a:向指定的cs添加rs

  5. -r:指定具体的rs,可包含ip和端口

  6. -g:Gateway,DR(默认使用的类型),nat模式是-m

  7. -w:指定权重

  8. -C:清空所有集群服务

  9. -Z:计数器清零
复制代码
lvs可同时添加多个集群,例如:
  1. echo 1 > /proc/sys/net/ipv4/ip_forward
  2. ipv=/sbin/ipvsadm
  3. vip=192.168.0.38
  4. rs1=192.168.0.17
  5. rs2=192.168.0.16
  6. ifconfig eth0:0 down
  7. ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up
  8. route add -host $vip dev eth0:0
  9. $ipv -C
  10. $ipv -A -t $vip:9123 -s wrr -p 3600
  11. $ipv -a -t $vip:9123 -r $rs1:9123 -g -w 3
  12. $ipv -a -t $vip:9123 -r $rs2:9123 -g -w 1
  13. $ipv -A -t $vip:8080 -s wrr -p 3600

  14. $ipv -a -t $vip:8080 -r $rs1:8080 -g -w 3

  15. $ipv -a -t $vip:8080 -r $rs2:8080 -g -w 1



  16. $ipv -Z
复制代码

上面添加了两个lvs集群转发,一个是监听9123端口并转发,一个是监听8080端口并转发。

执行脚本:

  1. # bash /usr/local/sbin/lvs_dr.sh
复制代码
4、在2台 rs 上配置脚本:
  1. # vim /usr/local/sbin/lvs_dr_rs.sh

  2. #! /bin/bash

  3. vip=192.168.0.38

  4. ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up

  5. route add -host $vip lo:0

  6. echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

  7. echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce

  8. echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

  9. echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
复制代码
rs 上分别执行脚本:
  1. bash /usr/local/sbin/lvs_dr_rs.sh
复制代码
ipv6:由于ipv6没有arp等未知原因,上述脚本无法满足ipv6的转发,因此采用以下方法(见LVS原理详解以及部署中的5.2.2中的第一种方法)
三台机器:

  • Director节点:  (eth0 fec2::8  vip eth0:0 fec2::38)
  • Real server1: (eth0 fec2::18 vip lo:0 fec2::38)
  • Real server2: (eth0 fec2::28 vip lo:0 fec2::38)


Director 上配置脚本
  1. #! /bin/bash

  2. #开启路由转发
  3. echo 1 > /proc/sys/net/ipv6/conf/all/forwarding

  4. ipv=/sbin/ipvsadm

  5. $ipv -C

  6. $ipv -A -t [fec2::38]:9123 -s wrr -p 3600

  7. $ipv -a -t [fec2::38]:9123 -r [fec2::18]:9123 -g -w 3

  8. $ipv -a -t [fec2::38]:9123 -r [fec2::28]:9123 -g -w 1

  9. $ipv -Z
复制代码

在路由器上绑定vip和mac:

在路由器(交换机 或者防火墙)上明显说明vip对应的地址一定是Director上的MAC,只要绑定,以后再跟vip通信也不用再请求了,这个绑定是静态的,所以它也不会失效,也不会再次发起请求。

即对DS的网关所关联的设备(路由器 交换机 或者防火墙)进行配置,将vip和mac绑定:


以华为网络设备为例:
<Quidway> system-view
[Quidway] ipv6   (全局模式下使能ipv6 转发)
[Quidway] interface vlanif 100 (vlan接口或物理接口均可,此接口ip为DS的网关)
[Quidway-Vlanif100] ipv6 enable  (启用此接口的ipv6 转发)
[Quidway-Vlanif100] ipv6 neighbor 5000::1 0019-7459-3301 (绑定DS上的vip与网卡mac)

在2台 rs 上配置环路地址为vip地址:

  1. ifconfig lo:0 inet6 add FEC2::38/64 删除ipv6地址
复制代码

5、实验测试


测试方式同上,浏览器访问 http://192.168.0.38

(注释:作者这里是转发到nginx的默认端口80,所以直接访问该url,若是转发到其它端口,则访问对应的url即可,比如http://192.168.0.38:8080/url

其次,测试时要用cls测试,即不要在ds和rs上测试。)

注意:在 DR 模式下,2台 rs 节点的 gateway 不需要设置成 dir 节点的 IP 。



十一、LVS结合keepalive

LVS可以实现负载均衡,但是不能够进行健康检查,比如一个rs出现故障,LVS 仍然会把请求转发给故障的rs服务器,这样就会导致请求的无效性。keepalive 软件可以进行健康检查,而且能同时实现 LVS 的高可用性,解决 LVS 单点故障的问题,其实 keepalive 就是为 LVS 而生的。

1、实验环境

4台节点


  • Keepalived1 + lvs1(Director1):192.168.0.48
  • Keepalived2 + lvs2(Director2):192.168.0.58
  • Real server1:192.168.0.18
  • Real server2:192.168.0.28
  • IP: 192.168.0.38



2、安装系统软件

Lvs + keepalived的2个节点安装


  1. # yum install ipvsadm keepalived -y
复制代码
Real server + nginx服务的2个节点安装
  1. # yum install epel-release -y

  2. # yum install nginx -y
复制代码

3、设置配置脚本

Real server节点2台配置脚本:


  1. # vim /usr/local/sbin/lvs_dr_rs.sh

  2. #! /bin/bash

  3. vip=192.168.0.38

  4. ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up

  5. route add -host $vip lo:0

  6. echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore

  7. echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce

  8. echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore

  9. echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce



  10. 2节点rs 上分别执行脚本:

  11. bash /usr/local/sbin/lvs_dr_rs.sh
复制代码
keepalived节点配置(2节点):
  1. 主节点( MASTER )配置文件

  2. vim /etc/keepalived/keepalived.conf
复制代码
  1. vrrp_instance VI_1 {

  2.     state MASTER

  3.     interface eth0

  4.     virtual_router_id 51

  5.     priority 100

  6.     advert_int 1

  7.     authentication {

  8.         auth_type PASS

  9.         auth_pass 1111

  10.     }

  11.     virtual_ipaddress {

  12.         192.168.0.38

  13.     }

  14. }



  15. virtual_server 192.168.0.38 80 {

  16.     delay_loop 6

  17.     lb_algo rr

  18.     lb_kind DR

  19.     persistence_timeout 0

  20.     protocol TCP



  21.     real_server 192.168.0.18 80 {

  22.         weight 1

  23.         TCP_CHECK {

  24.             connect_timeout 10

  25.             nb_get_retry 3

  26.             delay_before_retry 3

  27.             connect_port 80

  28.         }

  29.     }



  30.     real_server 192.168.0.28 80 {

  31.         weight 1

  32.         TCP_CHECK {

  33.             connect_timeout 10

  34.             nb_get_retry 3

  35.             delay_before_retry 3

  36.             connect_port 80

  37.         }

  38.     }

  39. }
复制代码

从节点( BACKUP )配置文件

拷贝主节点的配置文件keepalived.conf,然后修改如下内容:

  1. state MASTER -> state BACKUP

  2. priority 100 -> priority 90
复制代码
keepalived的2个节点执行如下命令,开启转发功能:
  1. # echo 1 > /proc/sys/net/ipv4/ip_forward
复制代码

4、启动keepalive   
先主后从分别启动keepalive
  1. service keepalived start
复制代码

5、验证结果

实验1

手动关闭192.168.0.18节点的nginx,service nginx stop 在客户端上去测试访问 http://192.168.0.38 结果正常,不会出现访问18节点,一直访问的是28节点的内容。

实验2

手动重新开启 192.168.0.18 节点的nginx, service nginx start 在客户端上去测试访问 http://192.168.0.38 结果正常,按照 rr 调度算法访问18节点和28节点。

实验3

测试 keepalived 的HA特性,首先在master上执行命令 ip addr ,可以看到38的vip在master节点上的;这时如果在master上执行 service keepalived stop 命令,这时vip已经不再master上,在slave节点上执行 ip addr 命令可以看到 vip 已经正确漂到slave节点,这时客户端去访问 http://192.168.0.38 访问依然正常,验证了 keepalived的HA特性。

腾讯云
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

精彩图文



在线客服(工作时间:9:00-22:00)
400-600-6565

内容导航

微信客服

Copyright   ©2015-2019  云服务器社区  Powered by©Discuz!  技术支持:尊托网络     ( 湘ICP备15009499号-1 )