您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Modeler   Code  
会员   
 
   
 
 
     
   
 订阅
  捐助
LVS简介及实战
 
来源:cszer 发布于: 2015-04-09
   次浏览      
 

以前做过一些负载均衡高可用的实验,由于在工作环境一直都没有用到这些技术,现在几乎都忘光了,记录在evernote里的实验笔记也不完整。趁着最近事情较少,重新找了些资料,把一些相关的实验再做一遍,并记录完整,以备不时之需。

一、 LVS简介

LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 是一个由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.org。现在LVS已经是 Linux标准内核的一部分,在Linux2.4内核以前,使用LVS时必须要重新编译内核以支持LVS功能模块,但是从Linux2.4内核以后,已经完全内置了LVS的各个功能模块,无需给内核打任何补丁,可以直接使用LVS提供的各种功能。

使用LVS技术要达到的目标是:通过LVS提供的负载均衡技术和Linux操作系统实现一个高性能、高可用的服务器群集,它具有良好可靠性、可扩展性和可操作性。从而以低廉的成本实现最优的服务性能。

LVS自从1998年开始,发展到现在已经是一个比较成熟的技术项目了。可以利用LVS技术实现高可伸缩的、高可用的网络服务,例如WWW服务、Cache服务、DNS服务、FTP服务、MAIL服务、视频/音频点播服务等等,有许多比较著名网站和组织都在使用LVS架设的集群系统,例如:Linux的门户网站(www.linux.com)、向RealPlayer提供音频视频服务而闻名的Real公司(www.real.com)、全球最大的开源网站(sourceforge.net)等。

二、 LVS体系结构

使用LVS架设的服务器集群系统有三个部分组成:最前端的负载均衡层,用Load Balancer表示,中间的服务器群组层,用Server Array表示,最底端的数据共享存储层,用Shared Storage表示,在用户看来,所有的内部应用都是透明的,用户只是在使用一个虚拟服务器提供的高性能服务。

LVS体系结构下图所示:

下面对LVS的各个组成部分进行详细介绍:

1.Load Balancer层:位于整个集群系统的最前端,有一台或者多台负载调度器(Director Server)组成,LVS模块就安装在Director Server上,而Director的主要作用类似于一个路由器,它含有完成LVS功能所设定的路由表,通过这些路由表把用户的请求分发给Server Array层的应用服务器(Real Server)上。同时,在Director Server上还要安装对Real Server服务的监控模块Ldirectord,此模块用于监测各个Real Server服务的健康状况。在Real Server不可用时把它从LVS路由表中剔除,恢复时重新加入。

2.Server Array层:由一组实际运行应用服务的机器组成,Real Server可以是WEB服务器、MAIL服务器、FTP服务器、DNS服务器、视频服务器中的一个或者多个,每个Real Server之间通过高速的LAN或分布在各地的WAN相连接。在实际的应用中,Director Server也可以同时兼任Real Server的角色。

3.Shared Storage层:是为所有Real Server提供共享存储空间和内容一致性的存储区域,在物理上,一般有磁盘阵列设备组成,为了提供内容的一致性,一般可以通过NFS网络文件系统共享数据,但是NFS在繁忙的业务系统中,性能并不是很好,此时可以采用集群文件系统,例如Red hat的GFS文件系统,oracle提供的OCFS2文件系统等。

从整个LVS结构可以看出,Director Server是整个LVS的核心,目前,用于Director Server的操作系统只能是Linux和FreeBSD,linux2.6内核不用任何设置就可以支持LVS功能,而FreeBSD作为Director Server的应用还不是很多,性能也不是很好。

对于Real Server,几乎可以是所有的系统平台,Linux、windows、Solaris、AIX、BSD系列都能很好的支持

三、lvs实例

(一)、NAT模式:

NAT模型:地址转换类型,主要是做地址转换,类似于iptables的DNAT类型,它通过多目标地址转换,来实现负载均衡;

特点和要求:

1、LVS(Director)上面需要双网卡:DIP(内网)和VIP(外网)

2、内网的Real Server主机的IP必须和DIP在同一个网络中,并且要求其网关都需要指向DIP的地址

3、RIP都是私有IP地址,仅用于各个节点之间的通信

4、Director位于client和Real Server之间,负载处理所有的进站、出站的通信

5、支持端口映射

6、通常应用在较大规模的应用场景中,但Director易成为整个架构的瓶颈!

环境:virtualbox虚拟3台centos6.3虚拟机,拓扑如上

Directior:对外 192.168.1.103 ,对内 192.168.0.1

server1:192.168.0.2

server2:192.168.0.3

1、Director上安装ipvsadm:

yum install ipvsadm

2、开启路由转发:

echo 1 > /proc/sys/net/ipv4/ip_forward

3、server1上建一个简单的网页文件

echo "I'm Server1" >index.html

server2创建一个简单的网页文件

echo "I'm Server2" >index.html

4、使用pyhon的SimpleHTTPServer 模块启动一个简单的http服务器:

python -m SimpleHTTPServer 80

5、在Director上配置ipvs的定义:使用模式以及算法

ipvsadm -A -t 192.168.1.103:80 -s rr  
ipvsadm -a -t 192.168.1.103:80 -r 192.168.137.20 -m 
 ipvsadm -a -t 192.168.1.103:80 -r 192.168.137.30 -m  ipvsadm -L -n

打开浏览器测试访问:

页面轮流交替出现,确实按照RR算法进行调度。

6、改成WLC算法,权重定义为3比1

ipvsadm -A -t 192.168.1.103:80 -s wlc
ipvsadm -a -t 192.168.1.103:80 -r 192.168.0.2 -m -w 3
ipvsadm -a -t 192.168.1.103:80 -r 192.168.0.3 -m -w 1
ipvsadm -L -n

7、另一台机子上使用ab测试:

ab -c 10 -n 10000 http://192.168.1.103/index.html

8、查看结果:

[root@localhost ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.103:80 wlc
-> 192.168.0.2:80 Masq 3 0 7306
-> 192.168.0.3:80 Masq 1 0 2696

ps:其它算法可自行测试

(二)DR模式:

特点和要求

1、各个集群节点必须和Director在同一个物理网络中

2、RIP地址不能为私有地址,可以实现便捷的远程管理和监控

3、Director仅仅负责处理入站请求,响应报文则由Real Server直接发往客户端

4、集群节点Real Server 的网关一定不能指向DIP,而是指向外部路由

5、Director不支持端口映射

6、Director能够支持比NAT多很多的Real Server

原理:

DR模型:直接路由模型,每个Real Server上都有两个IP:VIP和RIP,但是VIP是隐藏的,就是不能提高解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP

Director在接受到外部主机的请求的时候转发给Real Server的时候并不更改目标地址,只是通过arp解析的MAC地址进行封装然后转给Real Server,Real Server在接受到信息以后拆除MAC帧封装,然后直接回复给CIP

环境:virtualbox虚拟3台centos6.3虚拟机,拓扑如上

Directior:eth0:192.168.1.103 eh0:0(vip):192.168.0.101

server1: eth0:192.168.1.104 lo:0(vip):192.168.1.101

server2: eth0:192.168.1.105 lo:0(vip):192.168.1.101

通信原理:

每个Real Server上都有两个IP:VIP和RIP,但是VIP是隐藏的,就是不能提高解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP

Director在接受到外部主机的请求的时候转发给Real Server的时候并不更改目标地址,只是通过arp解析的MAC地址进行封装然后转给Real Server,Real Server在接受到信息以后拆除MAC帧封装,然后直接回复给CIP。

而此时需要关闭RS上的基于VIP的arp解析,在linux内核2.4以后,内核中都内置了这种功能,通过一些设置可以关闭其arp的功能:

arp_ignore:定义接收到ARP请求时的响应级别

0:默认,只用本地配置的有响应地址都给予响应

1:仅仅在目标IP是本地地址,并且是配置在请求进来的接口上的时候才给予响应(仅在请求的目标地址配置请求到达的接口上的时候,才给予响应)

arp_announce:定义将自己的地址向外通告时的级别

0:默认,表示使用配置在任何接口的任何地址向外通告

1:试图仅向目标网络通告与其网络匹配的地址

2:仅向与本地接口上地址匹配的网络进行通告

PS:要想让其功能生效,必须先设置相关设置,然后在配置IP地址等信息

1、在server1和server2上执行如下操作

yum install ipvsadm

2、开启路由转发:

echo 1 > /proc/sys/net/ipv4/ip_forward

3、server1上建一个简单的网页文件

echo "I'm Server1" >index.html

server2创建一个简单的网页文件

echo "I'm Server2" >index.html

4、使用pyhon的SimpleHTTPServer 模块启动一个简单的http服务器:

python -m SimpleHTTPServer 80

5、在Director上配置ipvs的定义:使用模式以及算法

ipvsadm -A -t 192.168.1.103:80 -s rr
ipvsadm -a -t 192.168.1.103:80 -r 192.168.137.20 -m
ipvsadm -a -t 192.168.1.103:80 -r 192.168.137.30 -m
ipvsadm -L -n

6、访问测试

(三)、TUN模式

其实数据转发原理和上面的dr模式是一样的,不过这个我个人认为主要是位于不同位置(不同机房);LB是通过隧道进行了信息传输,虽然增加了负载,可是因为地理位置不同的优势,还是可以参考的一种方案;

优点:负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-TUN方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。

不足:这种方式需要所有的服务器支持”IP Tunneling”(IP Encapsulation)协议;

   
次浏览       
相关文章

企业架构、TOGAF与ArchiMate概览
架构师之路-如何做好业务建模?
大型网站电商网站架构案例和技术架构的示例
完整的Archimate视点指南(包括示例)
相关文档

数据中台技术架构方法论与实践
适用ArchiMate、EA 和 iSpace进行企业架构建模
Zachman企业架构框架简介
企业架构让SOA落地
相关课程

云平台与微服务架构设计
中台战略、中台建设与数字商业
亿级用户高并发、高可用系统架构
高可用分布式架构设计与实践
最新活动计划
LLM大模型应用与项目构建 12-26[特惠]
QT应用开发 11-21[线上]
C++高级编程 11-27[北京]
业务建模&领域驱动设计 11-15[北京]
用户研究与用户建模 11-21[北京]
SysML和EA进行系统设计建模 11-28[北京]

专家视角看IT与架构
软件架构设计
面向服务体系架构和业务组件
人人网移动开发架构
架构腐化之谜
谈平台即服务PaaS


面向应用的架构设计实践
单元测试+重构+设计模式
软件架构师—高级实践
软件架构设计方法、案例与实践
嵌入式软件架构设计—高级实践
SOA体系结构实践


锐安科技 软件架构设计方法
成都 嵌入式软件架构设计
上海汽车 嵌入式软件架构设计
北京 软件架构设计
上海 软件架构设计案例与实践
北京 架构设计方法案例与实践
深圳 架构设计方法案例与实践
嵌入式软件架构设计—高级实践
更多...