负载均衡发展趋势与部署.

上传人:我** 文档编号:114449117 上传时间:2019-11-11 格式:DOCX 页数:44 大小:1.59MB
返回 下载 相关 举报
负载均衡发展趋势与部署._第1页
第1页 / 共44页
负载均衡发展趋势与部署._第2页
第2页 / 共44页
负载均衡发展趋势与部署._第3页
第3页 / 共44页
负载均衡发展趋势与部署._第4页
第4页 / 共44页
负载均衡发展趋势与部署._第5页
第5页 / 共44页
点击查看更多>>
资源描述

《负载均衡发展趋势与部署.》由会员分享,可在线阅读,更多相关《负载均衡发展趋势与部署.(44页珍藏版)》请在金锄头文库上搜索。

1、F5 BIG-IP LTM 部署规范参考一、负载均衡技术的发展在门户网站设计中,如何容许大量用户同时访问,能够使网站有大量吞吐量是一个关键点。甚至有许多博客,当流量逐步增加时,为了使网站有大吞吐量,都会使用负载均衡这样低成本的技术,下面简单介绍一下常用负载均衡技术。1:软件负载均衡技术该技术适用于一些中小型网站系统,可以满足一般的均衡负载需求。软件负载均衡技术是在一个或多个交互的网络系统中的服务器上安装一个或多个相应的负载均衡软件来实现的一种均衡负载技术。软件可以很方便的安装在服务器上,并且实现一定的均衡负载功能。软件负载均衡技术配置简单、操作也方便,最重要的是成本很低。2:硬件负载均衡技术由

2、于硬件负载均衡技术需要额外的增加负载均衡器,成本比较高,所以适用于流量高的大型网站系统。硬件负载均衡技术是在多台服务器间安装相应的负载均衡设备,也就是负载均衡器来完成均衡负载技术,与软件负载均衡技术相比,能达到更好的负载均衡效果。3:本地负载均衡技术本地负载均衡技术是对本地服务器群进行负载均衡处理。该技术通过对服务器进行性能优化,使流量能够平均分配在服务器群中的各个服务器上,本地负载均衡技术不需要购买昂贵的服务器或优化现有的网络结构。4:全局负载均衡技术全局负载均衡技术适用于拥有多个低于的服务器集群的大型网站系统。全局负载均衡技术是对分布在全国各个地区的多个服务器进行负载均衡处理,该技术可以通

3、过对访问用户的IP地理位置判定,自动转向地域最近点。很多大型网站都使用的这种技术。5:链路集合负载均衡技术链路集合负载均衡技术是将网络系统中的多条物理链路,当作单一的聚合逻辑链路来使用,使网站系统中的数据流量由聚合逻辑链路中所有的物理链路共同承担。这种技术可以在不改变现有的线路结构,不增加现有带宽的基础上大大提高网络数据吞吐量,节约成本。总结,负载均衡主要有两种常用技术。第一种是将大量的同时发送的数据流在多个节点上进行处理。第二种是将单一负载的大量分担在多个节点上进行并行处理,并且在所有节点都完成处理后将结果合并起来输出给用户。而现在,负载均衡技术已经不是什么新鲜技术,一般维护过服务器,或有两

4、台以上的服务器都可以使用负载均衡技术二、负载均衡厂商1:思科已停止ACE的研发思科已经停止进一步开发ACE负载均衡产品,其主要包括两种设备标准机架式设备,以及板卡式设备,但仍将继续销售该产品并提供支持。这表明思科将放弃该市场,而对于应用交付的厂商来说这无疑是个好消息,目前作为该领域的重要厂商F5已经采取以旧换新计划。应用交付和网络是两个独立的领域,应用交付厂商F5关注网络第7层,而思科关注传统的2-4层,随着互联网的发展,单独的负载均衡器已经不能够应对巨大的流量和网络攻击,而且如果以网络的方式进行应用实施和安装,未来客户使用起来将会比较麻烦。那么为什么还会有人选择思科的ACE产品呢?其一:选择

5、思科ACE的客户专注于企业,较为保守,它们关注供应商的可靠性,需要一流的支持。其二,购买思科一站式解决方案有利于网络设施便利和后期支持。 Gartner在2009年认为“负载均衡已死”,到了2012这个预测成真,此次思科宣布停止研发ACE产品,之前另一个网络巨头Juniper也停止了此类产品的研发,更是印证了这个判断,这也意味着此后应用交付的市场将会变得更火火热。负载均衡是应用交付的一部分,很早以前,F5就从负载均衡转向应用交付。其BIG-IP产品覆盖范围广泛,且都具有高速缓存和压缩功能,iRules、iControl和完整代理架构提供良好的灵活性。能够让企业实现盈利的速度更快,管理成本更低。

6、2:F5换购计划换购的意义不是用负载均衡替换负载均衡产品,对此,F5 Networks中国区技术总监吴静涛表示F5是把应用交付的架构导入到负载均衡的架构,为用户做一个应用交付的架构,为未来长远的数据中心扩容和业务做打算。当然,能够思科ACE的厂商不止一家,市场上厂商之间的互相攻击也是常见战术,他说:“应用交付产品性能不在于单一性能指标,更重要的是所有技术整合在一起的表现。”3:F5集成的应用交付网络(ADN)F5将在2013年6月30日前提供针对Cisco负载平衡产品的双倍普通以旧换新积分(最高达$12,000),能够进行以旧换新的Cisco 型号包括:ACE 模块、ACE 设备、CSS、CS

7、M 和GSS。此日期前,F5 合作伙伴还可通过所有Cisco ACE 以旧换新交易注册享受5% 额外折扣(仅限合作伙伴发起的机会),F5 新的Cisco ACE迁移服务帮助客户有效地从ACE迁移至BIG-IP,以旧换新计划的客户将享受到标准迁移服务产品的25%折扣三、负载均衡的应用1:服务器负载均衡负载均衡建立在现有网络结构之上,扩展了网络设备和服务器的带宽、增加了吞吐量,同时提升了网络的数据处理能力、灵活性和可用性,具有低成本且有效透明的优点。负载均衡在应用模式上可分为服务器负载均衡和链路负载均衡(含全局负载均衡),本次先着重谈谈服务器负载均衡。长期以来,负载均衡产品给大家的印象就是部署在庞

8、大的服务器群前端,售价昂贵,是比较神秘的产品,如同旧时王谢堂前燕,仅是大户人家的网络才会需要。而事实上,负载均衡产品对于中小型网络业务平台同样适用,尤其是当前负载均衡产品已经可以提供“飞入寻常百姓家”的售价,所以如果用户的业务系统采用了大量的服务器双机(每种子业务都采用服务器双机),随着业务量的激增需要搭建一个弹性平台来满足业务量的变化,此时应考虑选择负载均衡产品来优化其业务平台。负载均衡产品的实现与形态负载均衡,在业界又称之为4、7层交换机。二层交换机靠Mac地址表来转发报文,三层交换机是对目的IP进行“一次路由,多次转发”,负载均衡则是根据数据流的IP+端口甚至需要解析数据流Payload

9、来确定转发的目的服务器,如果开启会话保持功能,则可以实现“一次负载均衡分发,多次转发”。传统的负载均衡产品图1 传统负载均衡器内部架构传统的硬件负载均衡产品采用通用处理器(如Intel的x86处理器)+通用的交换芯片架构,通用处理器CPU实现L4、L7的分发处理;交换芯片(ASIC)完成二三层转发并对外提供物理接口,不参与L4、L7业务。它的产品形态是独立的盒式设备。传统负载均衡一般采用旁路组网方式部署在交换或路由设备上,通过交换或路由设备进行引流分发并回送至交换或路由设备上,报文所流经的路径是:网络设备负载均衡器的交换芯片负载均衡器的处理器负载均衡器的交换芯片网络设备。2. 模块化的负载均衡

10、产品当前市场除了传统盒式的负载均衡产品外,也有另外一种形态的负载均衡产品,它以业务模块的形式将负载均衡的业务处理部分集成到交换机设备中,通常被成为LB(Load Balance)业务模块或插卡(如图2所示),集成了LB的交换机又被称为负载均衡交换机。图2 负载均衡交换机模块化产品有以下特点:共享网络特性。以H3C SecBlade LB模块为例,由于与网络设备共享了统一的软件平台,天然支持丰富的路由协议如RIP、BGP、OSPF和IPv6等网络特性。一些传统的负载均衡产品是通过License使用上述网络特性。共享硬件器件。负载均衡模块在以插卡方式集成到网络设备上之后,一方面通过复用交换路由的双

11、主控、双电源等器件分享高可靠资源,另一方面还通过复用交换路由的电源系统、交换接口提供更优的性价比。节约机架空间、简化组网。在宝贵的机房空间中,负载均衡模块集成在交换路由设备中,节约机房空间;在组网中,无须外联引流,简化组网和配置维护工作量。对比盒式产品的报文所流经的路径,模块化产品则简化了这个流程,其报文的路径是:网络设备负载均衡模块的处理器网络设备。四、典型的部署场景与方案1. 服务器负载均衡的应用场景如图3所示,通过集成LB板卡的负载均衡交换机,采用物理上的扁平化组网,大大简化组网方案。对于服务器负载均衡部署场景,在数据流处理模式上可以分为NAT模式和DR模式。图3 负载均衡应用场景2.

12、负载均衡的NAT组网模式该组网模式下负载均衡使用NAT技术对请求、响应报文做两次地址转换,因此被称为NAT方式(如图4所示)。技术优势:组网灵活,对服务器没有额外要求,不需要修改服务器配置,适用于各种组网 。图4 负载均衡NAT组网模式图5 负载均衡DR组网模式五、 应用价值分析1. 提升业务系统的伸缩性当业务系统服务器无法支撑当前的业务量时,用户可以选择更换更高性能的服务器,但更为合理的做法是通过在既有业务服务器基础上通过集群或硬件负载均衡,以增量的方式增加服务器,而外部用户仅感受到是一台高性能服务器在提供服务,从而极大提升业务系统的伸缩性。单个业务系统:某个业务系统可以方便地新增业务服务器

13、满足业务量增长,通过硬件负载均衡设备,无须为每个节点购买商业集群软件的License、无须在每台服务器上配置集群探测信息,只需在负载均衡上简单的添加一台服务器的实IP地址即可。新增业务系统:对于新增业务系统,可以在硬件负载均衡设备添加一个虚服务,配置好实体服务器的负载均衡调度算法、实体服务器健康检测算法即可,不仅可以节省双机或集群软件的投资,同时也简化了业务配置维护的工作量。但业务量增长也可能导致负载均衡设备本身成为业务系统的瓶颈,因此负载均衡设备自身也应具备适用业务量变化的伸缩性。在这一要求上,模块化产品和盒式产品表现不尽相同。图6所示为通过在交换机中根据业务量灵活部署多个LB业务板卡方式实

14、现性能的平滑扩容和线性叠加。以H3C为例,一台交换机设备允许集成多个LB业务板卡,多个LB模块又可以虚拟成一台负载均衡设备来使用,服务器网关设置在交换机上,每个LB业务模块均对外提供统一的VIP。客户端流量访问业务时,交换机通过等价路由方式将流量均分至LB业务模块,每个LB模块对数据流进行一次源IP的NAT处理(每个LB的NAT地址池均不重合),保证服务器响应报文能返回到同一块LB业务板处理。图6 多LB业务模块n:1虚拟化详解独立的盒式负载均衡设备,也可通过以上机理实现,但需要提前规划好交换机物理接口数量,且负载均衡器均不响应针对VIP的ARP请求,以避免出现VIP的ARP地址表冲突问题。2

15、. 提升业务平台的可靠性在一些中小型业务系统中,关键的业务系统一般采用服务器双机来保障核心业务的可靠性,如果这两台服务器不安装双机热备软件,那么单纯靠网络设备通过物理端口的up/down状态来探测服务器故障状态是远不够的。因为无法发现服务器网口UP但内部业务进程挂死的情况,最后只能通过用户投诉发现,这对于核心业务系统而言是无法容忍的。通过部署负载均衡为服务器双机提供可靠性是一种较好的方式。一是负载均衡通过探测服务器业务层面的健康检测,确保用户的业务请求分发到健康的服务器;二是方便后续业务系统扩容;三是避免了设备利用率低下的问题。服务器部署双机软件时,两台服务器是工作主/备模式,服务器利用率仅为50%,而负载均衡设备则通过负载均衡分发算法,将两台服务器均利用起来,相当于服务器双机工作在主/主模式,利用率达到100%。可以说在业务系统规模较小时部署负载均衡设备是一种具有前瞻性的组网方案,H3C公司自身的数据中心所有的业务系统均部署了负载均衡设备,为大量的业务双机服务器提供了可靠性保障。3. 提升业务系统的响应速度通过硬件负载均衡设备提升业务系统的响应速度源自以下两个方面:通过服务器调度分发算法负载均衡可以通过“最小响应时间”、“最低CPU、内存利用率”等方式,将用户请求数据流分发到响应最快的服务器,从而提升业务系统的响应时间。通过应用优化技术业务系

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号