文档详情

CloudFabric云数据中心网解决方案-基于MDC的Multi-Site设计指南

I***
实名认证
店铺
DOCX
3.10MB
约60页
文档ID:166006574
CloudFabric云数据中心网解决方案-基于MDC的Multi-Site设计指南_第1页
1/60

CloudFabric云数据中心网解决方案 设计指南(基于MDC的Multi-Site)目 录1 概述 11.1 概念术语 11.2 业务场景 21.2.1 两地三中心场景 21.2.2 边缘DC场景 31.2.3 大型DC多POD场景 41.3 业务需求分析 51.3.1 多DC互联需求分析 51.3.2 网络时延需求分析 81.3.3 VAS资源池化需求分析 81.4 SDN网络需求分析 102 Multi-Pod和Multi-Site方案选择 122.1 Multi-Site方案介绍 122.2 Multi-Pod方案介绍 152.3 Multi-Pod和Multi-Site对比选择 183 Multi-Site方案架构 203.1 MDC方案架构 203.2 VMM/云平台对接设计 224 Multi-Site方案设计 244.1 方案能力 244.2 MDC部署 254.3 业务发放流程 274.3.1 MDC预配置 284.3.2 租户VPC业务发放 304.3.3 MDC业务发放 314.3.3.1 跨Fabric VPC互通 314.3.3.2 跨安全域VPC互通 344.3.3.3 VPC访问外部网络 364.3.3.4 跨安全域VPC访问外部网络 384.3.3.5 跨安全域VPC互通(集中式VAS) 404.3.3.6 跨安全域VPC访问外部网络(集中式VAS) 425 部署推荐 455.1 多DC场景方案设计 455.1.1 典型组网 455.1.2 应用实践 485.2 边缘DC场景方案设计 495.2.1 典型组网 495.2.2 应用实践 535.3 大型DC多POD场景方案设计 545.3.1 典型组网 545.3.2 应用实践 56A 参考图片 Error! Bookmark not defined.1 概述本章节说明多DC、多POD的业务场景和客户诉求。

1.1 概念术语1.2 业务场景1.3 业务需求分析1.4 SDN网络需求分析1.1 概念术语DC:Date Center,是比较通用的数据中心概念,从物理概念上看,可以是一个小的机房/资源Module,也可以是一个包含多个机房/资源ModulePod:Point of Delivery,一个独立的物理资源,Multi-Pod之间的Pod距离不能太远,Pod之间可以满足传统意义上的同城DC部署要求Site:英文是站点的意思,一套iMaster NCE-Fabric控制器纳管的范围,Site的管理范围更大,一个Site可以包含多个PodMulti-Pod:Multi-Pod适用于地域上距离较近的物理资源域,管理域是被同一套iMaster NCE-Fabric控制器纳管的DC或者资源Module,当前方案重点是距离较近的两个Pod业务互通Multi-Site:Multi-Site是两个或者多个位于不同地域的Site,可以是位于同城的近距离Site,可以位于异地的远距离Site管理层面上是多套iMaster NCE-Fabric控制器纳管的DC或者资源ModuleMDC:Multi-Domain-Controller,多数据中心多Domain控制器,实现跨Fabric业务互通的自动化部署、支持灵活的安全策略控制。

Domain:一个SDN管理域,对应一套控制器的管理范围,Domain控制器即是iMaster NCE-Fabric控制器Transit Fabric:在Multi-Site场景使用,MDC支持将Domain控制器纳管的DCI网关上收,将业务上有跨Fabric互通关系的Fabric GW放在一个Transit Fabric资源池中管理VPC:Virtual Private Cloud,面向租户,是一个用户能够定义的虚拟网络一个租户内可以包含一个或多个VPCTransit VPC:互通VPC,是相对业务VPC而言的一个逻辑概念,Multi-Site场景使用Transit VPC来实现多个Site之间的业务VPC互通1.2 业务场景随着大数据、云计算、移动互联网的迅速发展,随着国家新基建对“大数据中心”战略投资和布局,数据中心建设日趋活跃各企业随着业务的发展,越来越多的应用部署在数据中心而单个数据中心的规模有限,不可能无限扩容,业务规模的不断增长使得单个数据中心的资源很难满足业务增长的需求,需要建设多个数据中心来部署业务1.2.1 两地三中心场景在金融、运营商、政府等领域,信息系统业务中断会导致巨大经济损失、影响品牌形象并可能导致重要数据丢失。

因此,保证业务连续性是信息系统建设的关键,备份和容灾逐渐成为了普遍需求出于灾备的目的,企业一般都会建设多个数据中心,例如金融企业普遍采用“两地三中心”的建设方案,“两地三中心”指的是在同城建设双活主用数据中心,在此基础上在异地增加一个灾备数据中心,与同城双活实现数据同步同城双活数据中心是指:相同的两套业务系统部署在同城两个DC,在应用处理层面上实现了完全冗余,通过负载均衡GSLB将流量路由到不同数据中心的应用服务器,两套业务系统同时在同城的两个数据中心运行,同时为用户提供服务服务能力是双倍的,并且互相实时灾备接管,当某个数据中心的业务系统出现问题时,另一个数据中心的业务系统仍持续提供服务,业务连续性和可靠性性得到了很大的提高,对用户来说故障无感知不同数据中心的子系统间需要跨DC互通,相同子系统的安全策略需要一致,对外提供相同服务,形成双活异地的灾备中心是同城双活的两个主数据中心的备份中心,用于备份主数据中心的数据、配置、业务等当主用双中心出现自然灾害等原因发生故障时,异地灾备中心可以快速恢复数据和应用,保证业务正常运行,从而减轻因灾难给用户带来的损失,如图1-1所示图1-1 两地三中心场景示意1.2.2 边缘DC场景随着5G、物联网、大数据等技术的广泛推广和应用,数据种类、数据规模和数据形式呈爆炸式增长,为更好地支撑高密度、大带宽和低时延业务场景,唯一有效的方式为在靠近用户的网络边缘侧构建业务平台,提供存储、计算、网络等资源,将部分关键业务应用下沉到接入网络边缘。

不同的业务对边缘云数据中心的下沉程度要求不同,端到端时延要求<20ms的业务多数规划部署在接入机房和企业自有机房内,端到端时延要求20~50ms的业务多数规划部署在汇聚机房和企业自有机房内,端到端时延要求>50ms的业务对机房位置敏感度大幅降低,站址的规划可以在较大地理范围内综合考虑成本等因素来选[面向5G的边缘数据中心基础设施 数据中心能源白皮书801号]另外,企业增量建设或者企业承建小规模数据中心也是边缘DC的应用场景边缘数据中心具有以下特点:边缘DC部署非常靠近信息源,具有属地化部署特点,分布广泛,具有小型化、分布式、数量多、贴近用户等特点当边缘DC的属地用户发起业务访问时,根据就近服务原则,边缘DC可以处理一部分本地化服务,不再需要访问中心DC,降低了网络延时和传输压力另一方面,需要访问中心DC数据的场景(核心数据在中心DC),中心DC通过骨干网将内容发送给边缘DC,边缘DC再将内容发送给最终客户,在这个过程中,边缘DC和中心DC之间需要进行L2/L3互通如图1-2所示图1-2 边缘DC场景示意1.2.3 大型DC多POD场景大型数据中心按照业务功能定位和安全防护等要求,DC内划分为多个物理资源池,每个资源池物理网络独立,对应不同的POD,不同类资源池互访通过安全设备进行访问控制。

资源池内部的不同业务通过逻辑隔离共享物理网络如图1-3所示为大型DC多POD的一个场景举例,数据中心内部划分为生产区、测试区、容灾区、互联网DMZ区、外联网DMZ区等不同资源池,按照资源池物理隔离要求,每个资源池部署在不同的POD中,POD间互访流量需要经过安全设备访问控制及交换核心设备的路由转发;Internet和Extranet网络访问生产区等内网区POD,要经过DMZ隔离区作为统一接入区图1-3 DC内多POD场景示意1.3 业务需求分析1.3.1 多DC互联需求分析互联需求介绍从业务场景中的介绍我们可以看出,多个数据中心之间并不是孤立的,不同的层面有不同互通需求,多个数据中心之间互联要解决以下几个问题:l 数据同步和数据备份,需要存储互联;l 跨数据中心部署HA集群内部的心跳,或者虚机迁移,需要大二层互通;l 业务间的互访需要,跨数据中心三层互通;l 不同数据中心前端网络,即数据中心的外联出口,通过IP技术实现互联图1-4 跨数据中心互联示意各类业务跨DC部署时集群节点间的互通要求参见表1-1表1-1 业务跨DC部署要求技术方案WebAppDBSAN波分/裸光纤---√跨DC二层互联--√-跨DC三层互联√√√-互联技术介绍1. 存储互联,一般通过波分或者裸光纤:波分或者裸光纤(DWDM或者Dark Fiber)是物理链路直连,此互联的方式的优点是独享式通道(仅用于数据中心之间的流量交互),可充分满足数据中心之间流量交互的高带宽和低延时需求,而且可以承载多种协议的数据传输,提供灵活的SAN/IP业务接入,不论是IP SAN还是FC SAN都可以承载,既支持二层网络互联也支持三层网络互联,满足多业务传输需要,不足之处就是需要新建或租用光纤资源,增加数据中心的投入成本,主要应用于同城站点之间。

2. 应用集群或者跨DC的虚机迁移需要跨DC的大二层网络,大二层技术包括:− VPLS,是一种基于MPLS和以太网技术的二层VPN技术VPLS的主要目的就是通过公网连接多个以太网,使它们像一个LAN那样工作在已有的公网/专网资源上封装二层VPN通道,用以承载数据中心之间的数据交互和容灾业务的备份与恢复,主要应用于云计算数据中心的互联场景此互联方式的优点是无需新建互联平面,只需要在当前的网络通道上叠加一层VPN通道以隔离于网络中现有的数据流量;不足之处是部署实施较为复杂,而且要有MPLS网络的支持,需要租用运营商的MPLS网络或者有自建的MPLS网络− VXLAN,是一种先进的“MAC in IP” 的Overlay技术,允许承载在IP网络上,通过VXLAN遂道在IP核心网提供L2VPN服务它可以基于现有的运营商各种专线网络或者因特网,为分散的物理站点提供二层互联功能这种方式成本低,距离远,易于扩展,而且VXLAN支持水平分割防环机制,以及广播风暴抑制功能,优点是不依赖于光纤资源或MPLS网络资源,只要求两端三层IP可达即可,方案灵活,扩展性极强,成本较低,并且部署运维更简单;不足之处是网络的质量受限于IP网络,而且由于采用Overlay技术带宽利用率较低。

图1-5 两种大二层技术VPLS和VXLAN示意3. DC间三层互联方式有:− 传统IP三层互联,是指通过IGP/BGP路由传递,使不同数据中心的业务网段能够三层互通− MPLS L3 VPN,是构建在MPLS网络之上的虚拟L3专用网络,通过MPLS L3 VPN可以使不同数据中心的业务网段能够三层互通;用以承载IDC之间的数据交互和容业务持续和恢复份,此互联方式主要应用于传统业务数据中心的互联场景,优点同VPLS,不足也与VPLS一样− VXLAN,是构建在IP网络之上的VXLAN隧道,也可以提供L3 VPN服务。

下载提示
相似文档
正为您匹配相似的精品文档