当前位置:   article > 正文

【Web服务应用】LVS负载均衡集群_web,lvs

web,lvs

一、企业级集群含义

1.1集群的含义

  • Clister,集群,群集
  • 由多台主机构成,但对外表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机

问题

  • 互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、对可靠性要求越来越高,单台服务器已经无法满足负载均衡可用的要求

解决方法

  • 使用昂贵的小型机,大型机
  • 使用多台相对廉价的普通服务器构建服务集群
    通过整合多台服务器,使用LVS来达到服务的高可用和负载均衡,并以同一个IP地址对外提供相同的服务
    在企业中的一种集群技术----LVS

1.2LVS一些专业术语

在后面继续聊LVS前,必需先了解相关专业术语。客户端(浏览器)ip地址CIP;LVS服务器需要提供两个IP地址,一个是虚拟IP地址,即客户端访问的IP地址(VIP),另外一个是LVS服务器对内网的真是IP地址(DIP);然后真实应用服务器也需要提供两个IP地址,一个是本机的局域网IP地址(RIP),然后还需要提供一个与VIP保持一致的虚拟IP地址(RVIP)。

  • CIP:客户端地址,为源IP;
  • VIP:也就是虚拟系统的对外IP,用户接受客户端请求的。
  • DIP:LVS服务器所在局域网的主机IP地址,用来再局域网中地址通讯的。
  • RIP:真实服务器的局域网IP地址,用户局域网内的主机路由;
  • RVIP:真实服务器VIP,与LVS的VIP相同。用于处理目标IP为VIP的请求,该VIP需要对外不可见,不然会与本局域网的LVS的VIP地址冲突,可以修改linux内核ARP协议参数,来达到该IP对主机可见,但是对外不可见的目的。(ARP协议主要用于定位目标IP的mac地址)。
  • real server(RS):实际服务器

二、企业集群分类

2.1负载均衡集群

  • 提高应用系统的响应能力,尽可能处理更多的访问请求、减少延迟。为目标获得高并发、高负载(LB)的整体性能
  • LB的负载分配依赖于节点的分流算法,讲来自客户机的访问请求分担给多个服务器节点,从而缓解整个各系统的负载压力。例如“DNS轮询”,“反向代理”等

2.2高可用集群

  • 提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用性的容错效果
  • HA的工作方式包括双工和主从两种模式,双工及所有节点同时在线;主从则只有主节点在线,当出现故障时从节点能自动切换为主节点,例如,“故障切换”,“双机热备”等

2.3高性能运算集群(High Performance Computer Cluster)

  • 以提高应用系统的CPU运算速度,扩展硬件资源和分析能力为目标,获得相遇大型、超级计算机的高性能运算(HPC)能力
  • 高性能依赖于“分布式运算” 、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存资源整合在一起,实现只有大型、超级计算机才具备的计算能力,例如“云计算”,“网络计算”等。

三、负载均衡的架构

3.1负载均衡的结构

在这里插入图片描述

(1)客户端通过VIP将访问请求发送到负载调度器
(2)调度器会更具调度算法找到适合的节点服务器并将请求通过RIP转发到对应的节点服务器
(3)NAS或文件服务器一般也会与节点服务器在同一个局域网内,并会通过NFS服务将共享目录里的文件数据同步给各个节点服务器

第一层 负载均衡调度器

  • 访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP 地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

第二层 服务器池

  • 群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。

第三层 共享存储

  • 为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用 NAS设备,或者提供NFS共享服务的专用服务器。

四、负载均很集群的工作模式

4.1NAT模式

地址转换

  • Network Address Translation,简称NAT模式
  • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
  • 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式

在这里插入图片描述

  • 也就是说调度器会承载双向数据的压力,会成为整个集群的瓶颈,安全性尚可

4.2TUN模式

IP隧道

  • IP Tunnel,简称TUN模式
  • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
  • 服务器节点分散在互联网中的不同位置具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信

在这里插入图片描述

  • 成本较高。安全较低,性能也会收到影响。优点时可以跨子网进行部署

4.2 DR模式

直接路由

  • Direct Routing,简称DR模式
  • 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
    在这里插入图片描述

五、LVS调度器常见的算法

5.1固定调度算法

(1)rr : 轮询算法,将请求依次分配给不同的rs节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况
(2)wrr:加权轮训调度,依据不同ES的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权值低的S更多,相同权值的RS得到相同数目的连接数
(3)dh:目的地址哈希调度 (destination hashing) 以目的地址为关键字查找一个静态hash表来获得所需RS
(4)sh:源地址哈希调度 (source hashing) 以源地址为关键字查找一个静态hash表来获得需要的RS。

5.2动态调度算法

(1)wlc : 加权最小连接数调度,假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次去T1/Wi为最小的RS作为下一个分配的RS。
(2)lc:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
(3)lblc:其干地址的最小连接数调度 (locality-based least-connetcion):将来自一个的地的同一台RS,时这合务器是尚未满负荷的。否则就将这个请求给接数小的RS,以它作为下一次分配的首先考虑

5.3ipvsadm 工具选项说明:

选项功能
-A添加虚拟服务器
-D删除整个虚拟服务器
-s指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接:wlc)
-a表示添加真实服务器(节点服务器)
-d删除某一个节点
-t指定 VIP地址及 TCP端口
-r指定 RIP地址及 TCP端口
-m表示使用 NAT群集模式
-g表示使用 DR模式
-i表示使用 TUN模式
-w设置权重(权重为 0 时表示暂停节点)
-p 60表示保持长连接60秒(默认关闭连接保持)
-l列表查看 LVS 虚拟服务器(默认为查看所有)
-n以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -ln

六、LVS-NAT部署

6.1实验一

在这里插入图片描述

192.168.243.107负责提供共享存储
192.168.243.103节点服务器
192.168.243.104节点服务器
192.168.243.102调度服务器,是节点服务器与客户端的网关

在这里插入图片描述
(1)部署共享存储

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#NFS服务需要的软件包,一般自带
yum install nfs-utils rpcbind -y
systemctl start rpcbind.service
systemctl start nfs.service
#创建共享目录,配置权限
mkdir /data/host03 /data/host04
echo 'this is kgc web!' > /data/host03/index.html
echo 'this is benet web!' > /data/host04/index.html
chmod 777 /data/kgc /data/benet
#配置需要共享的目录,设置可读可写权限
vim /etc/exports
/opt/kgc 192.168.80.0/24(ro)
/opt/benet 192.168.80.0/24(ro)
showmount -e
#先开启NFS服务,在开启rpcbind服务
systemctl enable nfs.service
systemctl enable rpcbind.service
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

在这里插入图片描述

(2)配置节点服务器

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#配置Nginx的yum仓库,下载nginx
vim /etc/yum.repo.d/nginx.repo
[nginx-stable]
name=nginx stable repo
baseurl=http://nginx.org/packages/centos/7/$basearch/
gpgcheck=0
enabled=1
yum -y install nginx
#更改网关地址,指向调度服务器
vim /etc/sysconfig/network-scripts/ifcfg-ens33
#把共享目录挂载到nginx的html目录中 
mount 192.168.243.107:/data/host04 /usr/share/nginx/html/
#关闭连接保持,方便实验
vim /etc/nginx/nginx.conf
 keepalive_timeout  0
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

在这里插入图片描述

(3)配置调度器(内网关 ens33:192.168.243.102,外网关 ens35:12.0.0.1)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#配置防火墙,SNAT转发规则
vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
sysctl -p
#配置防火墙SNAT
ptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.243.0/24 -o ens35 -j SNAT --to-source 12.0.0.1
#加载LVS内核模块
modprobe ip_vs					#加载 ip_vs模块
cat /proc/net/ip_vs				#查看 ip_vs版本信息
#安装ipvsadm 管理工具
yum -y install ipvsadm
启动服务前须保存负载分配策略-
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service
# 配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)
ipvsadm -C 					#清除原有策略
ipvsadm -A -t 12.0.0.1:80 -s rr [-p 60]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.243.103:80 -m [-w 1]
ipvsadm -a -t 12.0.0.1:80 -r 192.168.243.104:80 -m [-w 1]
ipvsadm -ln  #查看节点状态,Masq代表 NAT模式
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25

在这里插入图片描述
在这里插入图片描述

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号