负载均衡解决方案讲解

上传人:101****457 文档编号:98004721 上传时间:2019-09-07 格式:DOC 页数:12 大小:856.51KB
返回 下载 相关 举报
负载均衡解决方案讲解_第1页
第1页 / 共12页
负载均衡解决方案讲解_第2页
第2页 / 共12页
负载均衡解决方案讲解_第3页
第3页 / 共12页
负载均衡解决方案讲解_第4页
第4页 / 共12页
负载均衡解决方案讲解_第5页
第5页 / 共12页
点击查看更多>>
资源描述

《负载均衡解决方案讲解》由会员分享,可在线阅读,更多相关《负载均衡解决方案讲解(12页珍藏版)》请在金锄头文库上搜索。

1、 ezOFFICE负载均衡解决方案 负载均衡实现方案负载均衡是 OA 系统多应用和集群部署必不可少的组件。作为多应用和集群部署的前端,负载均衡负责将用户的请求分发到后端各个OA应用上,并将OA 应用的响应返回给用户。后端的 OA 应用可以是独立的多应用部署,也可以是集群部署。两者间的区别在于集群部署可以实现会话复制,即用户的会话可以在集群中的应用间进行复制,其好处在于当用户当前访问的应用宕机时,由于用户会话会被复制到另一正常应用上,因此用户访问将不会受到影响,不需要重新登录 OA 系统,而独立的多应用部署没有会话复制功能。负载均衡为 OA 系统提供了高性能、高可靠性和可扩展能力。高性能,负载均

2、衡可以将用户的访问请求均衡分配到各个 OA 应用上,从而避免单一应用负载过高,影响此应用的访问体验;高可靠性,负载均衡可以探测各个 OA 应用的运行状况,自动将出现问题的 OA 应用退出负载,避免用户继续访问此应用;可扩展性,通过扩展负载均衡后的 OA 应用数量,从而让 OA 系统负担更多的用户并发访问。实现负载均衡有多种方法,对于 OA 系统常见的方法有以下三种:一、基于 JSP 页面的跳转将一个 OA 应用做为主应用,用户统一访问此应用,由此应用上的特定的 JSP 页面按轮询的方式将用户平均分配到其他各个应用上。此方法的优点在于实现简单,且没有成本不需要额外的设备和软件。此方法的缺点在于不

3、能提供高可靠性,当其中一个应用出现问题时,主应用仍然会将用户分配到此应用上,只有用户重新访问主应用,主应用才会将用户分配到另外一个应用上。二、基于反向代理软件此方法通过反向代理软件实现后端各个 OA 应用间的负载均衡。1、实现方式用户通过反向代理软件提供的 IP 地址和端口访问 OA 系统。过程如下:1) 用户将访问请求发送到反向代理软件;2) 反向代理软件根据请求中的特定标识(客户端 ip 地址或cookie 标记)将用户请求转发给特定的后端 OA 应用由于 OA 系统是基于用户的,在用户访问过程中始终保持用户会话,因此需要反向代理软件具有会话保持能力始终将特定用户的请求路由到后端的同一个

4、OA 应用;3) 后端应用将响应返回给反向代理软件;4) 反向代理软件将响应转发给用户。2、方案优势2.1、功能较完备 反向代理软件可以实现硬件负载均衡的大多数功能,如基于轮询的负载均衡方案、后端服务健康监控、基于 IP HASH 或 COOKIE INSERT 的会话保持策略等。2.2、成本较低 在用户并发和稳定性要求不高的环境下,反向代理软件可以实现硬件负载均衡的大多数功能,而投入成本大大低于硬件负载均衡设备。其只需要投资一台代理服务器,配置仅需要 8 CPU,8GB 内存即可,而现在流行的反向代理软件多是免费的。3、方案缺点3.1、性能和可靠性不高 反向代理软件的可靠性依赖于其运行的服务

5、器和操作系统的可靠性。一般来说,代理服务器选用 X86 架构的服务器,操作系统为 LINUX,其可靠性要低于采用专用硬件和内嵌系统的硬件负载均衡设备。 相对于硬件负载均衡设备,反向代理软件所运行的服务器和操作系统没有针对其进行专门的优化,使其没有办法充分利用所有的硬件和系统资源,因此在大并发环境会存在性能瓶颈。3.2、日常维护繁琐 相对于硬件负载均衡设备,绝大多数反向代理软件不包含或仅包含简单的管理控制台和运行日志。在日常维护中,管理员不能直观的观察到反向代理软件的运行状态,代理软件的所有配置修改只能通过修改配置文件实现,并需要重启代理软件才可以生效。3.3、有限的健康检查 反向代理软件只能通

6、过检查后端应用的 TCP 端口来判断应用是否正常运行。但是,OA 应用在运行过程中常常会遇到 TCP 端口可访问,页面无法打开或打开出错的情况。在这种情况下,反向代理软件仍然会将用户请求路由到出现问题的应用上,从而导致用户访问出错。三、采用负载均衡硬件设备此方法通过硬件负载均衡设备来实现多个 OA 应用之间的负载均衡。1、实现方式F5 BIG/IP利用定义在其上面的虚拟IP地址(VIP)来为用户的一个或多个应用提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。F5 BIG/IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,F5

7、BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。下图描述了一个负载平衡发生的流程: 1). 客户发出服务请求到VIP2). F5 BIG/IP接收到请求,将数据包中目的IP地址改为选中的后台服务器IP地址,然后将数据包发出到后台选定的应用3). 后台服务器收到后,将应答包按照其路由发回到F5 BIG/IP4). F5 BIG/IP收到应答包后将其中的源地址改回成VIP的地址,发回客户端,由此就完成了一个标准的服务器负载平衡的流程。对于所有应用,可以在F5 BIG/IP上配置Virtual Server实现负载均衡,同时F5 BIG/IP可持续检查服务器的健

8、康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。2、方案优势2.1、避免“不平衡”现象BIG-IP利用Virtual Server虚拟服务器(VS由IP地址和TCP/UDP应用的端口组成)来为用户的一个或多个目标服务器(称为Node:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能

9、和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。2.2、服务器的健康监控和检查服务器 (Node) - Ping (ICMP)BIGIP可以定期的通过ICMP包对后台服务器的IP地址进行检测,如果在设定的时间内能收到该地址的ICMP的回应,则认为该服务器能提供服务服务 (Port) - ConnectBIGIP可以定期的通过TCP包对后台服务器的服务端口进行检测,如果在设定的时间内能收到该服务器端口的回应,则认为该服务器能提供服务扩展内容查证(ECV: Extended Conte

10、nt Verification)-ECVECV是一种非常复杂的服务检查,主要用于确认应用程序能否对请求返回对应的数据。如果一个应用对该服务检查作出响应并返回对应的数据,则BIG/IP控制器将该服务器标识为工作良好。如果服务器不能返回相应的数据,则将该服务器标识为宕机。宕机一旦修复,BIG/IP就会自动查证应用已能对客户请求作出正确响应并恢复向该服务器传送。该功能使BIG/IP可以将保护延伸到后端应用如Web内容及数据库。BIG/ip的ECV功能允许您向Web服务器、防火墙、缓存服务器、代理服务器和其它透明设备发送查询,然后检查返回的响应。这将有助于确认您为客户提供的内容正是其所需要的。扩展应用

11、查证(EAV: Extended Application Verification)EAV是另一种服务检查,用于确认运行在某个服务器上的应用能否对客户请求作出响应。为完成这种检查,BIG/IP控制器使用一个被称作外部服务检查者的客户程序,该程序为BIG/IP提供完全客户化的服务检查功能,但它位于BIG/IP控制器的外部。例如,该外部服务检查者可以查证一个Internet或Intranet上的从后台数据库中取出数据并在HTML网页上显示的应用能否正常工作。EAV是BIG/IP提供的非常独特的功能,它提供管理者将BIG/IP客户化后访问各种各样应用的能力,该功能使BIG/IP在提供标准的可用性查证

12、之外能获得服务器、应用及内容可用性等最重要的反馈。该功能对于电子商务和其它应用至关重要,它用于从客户的角度测试您的站点。例如,您可以模拟客户完成交易所需的所有步骤连接到站点、从目录中选择项目以及验证交易使用的信用卡。一旦BIG/ip掌握了该可用性信息,即可利用负载平衡使资源达到最高的可用性。BIG/ip已经为测试Internet服务的健康情况和状态,预定义的扩展应用验证(EAV),它有二种用户界面:浏览器和CLI配置。BIG/IP预定义的应用检查:FTP、NNTP、SMTP、POP3和MSSQL。2.3、UIEiRuelsBIGIP利用UIE+iRules技术,可以将TCP/UDP数据包打开,

13、并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,实现7层的负载均衡。例如:根据用户访问请求的URL将流量导向到相应的服务器。BIG-IP提供了一套有针对性的方法来减少服务器压力,降低互联网延迟和客户机连接瓶颈对其应用访问性能所造成的影响。通过综合采用多种应用优化手段以后,应用访问的性能可以得到显著提高。与此同时,由于服务器性能的提高,还可以达到减少服务器数量,减少带宽占用从而节省投资的目的。2.4、连接优化BIGIP通过Oneconnect技术,将所有客户端的TCP连接转移至BIGIP进行处理;而BIGIP与服务器之间仅建

14、立少量的、持续的TCP连接。使Web服务器从处理大量的并发TCP请求和TCP连接建立/卸载的负担中解脱出来,同时当BIGIP收到用户请求后才发送到服务器,服务器可免于受到客户端和网络异常的影响。BIGIP还会缓存所有服务器的响应数据包,服务器以LAN速度发送数据到 BIGIP,服务器不会受到慢速客户端连接的牵累。服务器的大量CPU资源被释放来提供数据,而不是管理连接。BIGIP通过控制容量需求和访问分析优化了服务性能和带宽。企业也因为增加了更多的计算资源,减少了出口带宽需求而降低服务器和带宽投资,并且减少服务响应延迟和运营成本。2.5、HTTP压缩BIG-IP提供业内最具扩展性,最智能也最灵活

15、的压缩解决方案。BIG-IP 系统通过从服务器中不对称卸载 HTTP 压缩,降低了服务器开销,并通过实现服务器整合,将服务器总体拥有成本降低了高达 65%。BIG-IP 系统充分利用现有浏览器解压缩能力,无需对客户机进行任何修改,亦无需下载任何可能带来入侵威胁的软件。BIG-IP 智能压缩采用已申请专利的方法来测量客户连接延迟,这使带宽使用率降低了 60-80%,同时将用户响应时间提高了两倍以上。BIG-IP 是业内首款为企业提供的可扩展式压缩解决方案,具有通过优化硬件及其自适应压缩卸载 (Adaptive Compression Offload) 压缩 web 流量的可选功能。BIG-IP 系统的智能压缩功能为企业提供了一种针对目标用户进行压缩的方式。压缩流量不一定要以带宽利用率的降低为代价。真正的挑战在于把握如何最有效的定位,从而使用户获得最大优势。例如,由于拨号用户延迟较高,所以,对其进行压缩可使这部分用户获得最大优势。而由于宽带用户的接收窗口尺寸较大,因此,他们因此获得的优势则微乎其微,这是因为,宽带用户现在需要等待更长的时间来接收数据,这将导致响应时间变慢,因此,压缩的优势被抵消。BIG-IP 采用已申请专利的技术来动态检测客户连接延迟。BIG-IP 系统能够监控 TCP RTT (往返时间),以动态计算

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 中学教育 > 其它中学文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号