GAD双活存储集群方案

上传人:博****1 文档编号:547524537 上传时间:2023-04-13 格式:DOC 页数:29 大小:2.12MB
返回 下载 相关 举报
GAD双活存储集群方案_第1页
第1页 / 共29页
GAD双活存储集群方案_第2页
第2页 / 共29页
GAD双活存储集群方案_第3页
第3页 / 共29页
GAD双活存储集群方案_第4页
第4页 / 共29页
GAD双活存储集群方案_第5页
第5页 / 共29页
点击查看更多>>
资源描述

《GAD双活存储集群方案》由会员分享,可在线阅读,更多相关《GAD双活存储集群方案(29页珍藏版)》请在金锄头文库上搜索。

1、技术方案建议书目 录第1章 需求分析3第2章 总体技术解决方案52.1 方案拓扑示意图及简要说明52.2 方案优势简要说明62.3 VSP G1000的高性能、高可靠性、高扩展能力72.3.1 综合说明72.3.2 高可靠性92.3.3 高性能112.3.4 高扩展性122.4 双活存储集群的技术优势132.4.1 VSP G1000的GAD双活存储集群132.4.2 GAD双活存储集群的基础VSM142.4.3 GAD与其他厂商双活集群技术的对比152.5 现有核心SAN存储与新购存储的无缝集成172.6 关键线路连接示意图172.7 存储虚拟化整合规划182.8 远程容灾规划192.8.1

2、 选用HUR异步复制技术192.8.2 HUR异步复制软件的工作原理202.8.3 HUR异步复制软件与友商的技术对比说明22第3章 数据迁移解决方案233.1 数据迁移概述233.1.1 迁移目标233.1.2 数据迁移相关因素233.2 数据迁移方法论243.2.1 迁移评估设计阶段243.2.2 迁移实施阶段263.3 数据迁移技术的选择273.3.1 可选的数据迁移技术273.3.2 推荐数据迁移方案29第1章 需求分析根据现状分析,本次项目的核心建设要点有以下4点:1) 高性能,高扩展性,且可保证数据以及应用安全的存储设备鉴于XXXX的存储使用情况和未来的业务发展,需要高性能,高扩展

3、性(如存储产品的容量与端口等),高可靠性的企业级高端存储设备作为南方中心整体存储方案的支撑。2) 需要单一存储设备故障不影响业务生产,即双活存储集群技术XXXX对存储的要求不仅仅是能保证单套存储设备的可靠性,而且要保证在极端情况下,单一存储设备故障时,不会影响关键业务的生产,此外,即使在单套存储设备故障时,另一节点的双活存储的性能也需能够高效支撑业务,因此双活存储需采用相同的配置,以保证在单套存储出现灾难时,另一套存储可以以同样的性能支撑南方中心的业务。双活存储集群在写数据时是需要两套存储均确认写入成功才会执行下一写操作的,因此必须考虑双活存储集群技术对业务性能的影响。随着两套存储之间距离的增

4、大,数据写入延时越长,因此,建议双活存储集群应在同一个数据中心中以保证业务性能。3) 必须满足长期规划,以实现双活基础上的远程容灾保护即使已经实现了双活存储集群,但由于两个存储在一个机房楼里,仍然无法避免整个数据中心灾难所带来的影响。因此,还必须在双活的基础上实现远程数据容灾保护的功能,以保证在灾难发生时仍有可用数据快速恢复业务生产。4) 数据迁移由于南方中心的核心业务系统是从北京中心拆分出来的,需要将北京中心的部分现有数据迁移到南方中心。因此,本项目必须提供一套可行的、完善的、风险系数最低的数据迁移方案,为南方中心业务系统的部署和上线运行打好基础。根据分析,本项目需要实施数据迁移的IT环境中

5、具有如下特点:l 操作系统多样性:整体环境中主机包括AIX、Windows、Linux、ESX等各种操作系统,服务器涉及多个品牌;l 数据格式的多样性:数据的存放主要以Oracle数据库为主,有RAC和主备等多种形式的集群,另外还有主机文件系统,NAS文件系统等;l 数据量大:数十TB规模的数据需要迁移到南方中心新购存储;l 环境限制:距离远、网络带宽有限;这些特点都表明了数据迁移的复杂性,也对数据迁移的方法提出了挑战。因此数据迁移方案的选择和设计重点考虑以下要点:l 迁移方案应重点考虑数据初始化,即如何成功、快速的将数据从北京中心迁移到南方中心;l 迁移方案重点考虑与应用、操作系统、数据库的

6、无关性,尽量通过更底层的技术,如备份恢复、数据库复制、存储复制等,这样可有效降低数据迁移的复杂性;总之,数据迁移应考虑采用一个有效的方法来面向不同数据库、操作系统、服务器的各种应用的迁移,且迁移过程尽量缩短数据初始化的时间,完成南方中心的快速部署和上线运行。第2章 总体技术解决方案2.1 方案拓扑示意图及简要说明在明确项目建设目标,经过调研和分析,建议方案设计如下图所示:上图中紫色字体的部分是本次项目投标提供的SAN网络及存储设备。方案说明:l SAN网络层在SAN网络层面,方案采用两套Brocade 6520交换机作为SAN交换网络,形成双冗余连接,避免因单台交换机故障导致的存储业务中断。由

7、于南方中心与北京中心之间的远程连接为IP网络,因此建议用户考虑增加FC/IP路由设备,用以实现南方中心与北京中心之间的远程FC SAN路由连接,为基于存储的远程容灾复制提供链路支持。(注:该设备未包含在本方案存储设备供货清单中)l 存储层方案采用两套HDS最高端的存储设备VSP G1000为南方中心的业务系统提供高性能、高可靠的支撑服务,且采用安全级别最高的“双活存储集群”来实现两套VSP G1000的设备级冗余故障切换,单套VSP G1000停机不会影响业务的运行,无须任何人为干预,业务系统能够连续不停机的对外服务。此外,方案中还采用一套HDS中端存储设备HUS130,既可以为网管、监控等业

8、务系统提供支撑服务,也可当作VSP G1000双活存储集群的仲裁节点使用。l 主机层考虑到系统可靠性,服务器应安装两块独立的HBA卡,分别连接到两台Brocade 6520交换机,形成冗余链路。HDS VSP G1000自带HDLM动态多路径管理软件,可以安装在服务器操作系统中,用于管理路径负载均衡和故障路径自动切换。2.2 方案优势简要说明1) 高可靠性、高性能、高扩展性:l VSP G1000高端企业级存储,采用多控制器架构冗余设计,具有极高的可靠性。l 与此同时,VSP G1000的性能也非常出色,其上一代产品VSP公开发布的SPC-1测试结果为60万IOPS,而VSP G1000预估I

9、OPS可以达到200万以上。l 扩展性方面:VSP G1000最大支持2304块磁盘,192个前端口,2TB缓存,能够充分满足未来的业务发展需求。2) 双活存储集群方案l 由两套VSP G1000存储共同提供业务支撑服务,在任意一套存储出现严重故障(如断电等)无法工作时,业务系统能够继续运行,无须任何人工干预操作。在一套存储出现严重灾难时,单套存储仍可保证的业务的高效运行,实现RTO=0,RPO0的高可靠业务连续性方案和数据安全方案。l 两套存储的配置完全相同,在一套存储故障时,剩余的单套存储仍可以提供相同的业务处理速度,不会降低服务水平。3) 可实现双活基础上的远程容灾保护l VSP G10

10、00能够与北京中心实现远程容灾复制,从而实现北京中心与南方中心之间的数据互备容灾。虽然本项目选择的是利用数据库复制软件实现两中心间的容灾,但根据以往的项目经验,我们仍然建议使用存储级容灾复制功能,对Oracle数据库的Archive Log再做一份副本数据,作为数据库复制软件的补充手段和备用手段,为两中心间的容灾方案提供更全面的技术支撑。4) 可行的、完善的数据迁移方案数据迁移是一个极其复杂的系统问题。如何选择一种可行的、完善的数据迁移方案,应重点从以下几个方面考虑:l 容灾复制技术优先 本项目的建设目的就是为了实现南方中心与北京中心之间的远程容灾,因此建议首选容灾复制技术进行数据迁移。只有这

11、样,数据迁移到南方中心并启动业务生产之后,才能够继续保持与北京中心之间的数据容灾复制关系。 其他数据(文件系统、NAS)等,可以考虑采用NFS、FTP等方式迁移到南方中心。在具备条件的情况下(可实现两中心间的FC/IP路由通讯),也可以考虑使用存储系统的复制功能完成两中心间的数据迁移。l 电子传输比介质传送更可靠 无论哪种复制技术,都具有非常完善的数据传输机制与校验机制,并且迁移到南方中心的数据可以与北京中心直接建立容灾复制关系。如果带宽条件有限,预估传输时间较长,建议考虑临时增容带宽,以提高初始化复制的处理速度。 介质传输,无论是传送磁盘、磁带、甚至存储设备,都存在极高的数据损坏风险,并且时

12、效性很差,需要再次通过数据复制进行数据更新,过程非常复杂。2.3 VSP G1000的高性能、高可靠性、高扩展能力2.3.1 综合说明权威机构Gartner于2014年11月对业界主流高端存储进行了全方位的综合评测,评测项目众多,评分标准细致且科学。最终排名结果显示:VSP G1000排名第一(并列第一的HP XP7是VSP G1000的OEM型号)。Gartner官方网站链接如下:http:/ G1000的上一代产品),VSP(P9000为VSP的OEM产品)综合排名第一。评测内容包括:管理性、可靠性、性能、快照复制、扩展性、环保特性、多租户与安全、存储效率。上图是2014年11月的综合排名

13、情况,VSP G1000(XP7为VSP G1000的OEM产品)再次综合排名第一。2014年11月OLTP典型数据库应用评测,VSP G1000排名第一。2014年11月OLAP典型数据库应用评测,VSP G1000排名第一。2.3.2 高可靠性整体的存储系统平台分为三个层次,主机层、网络层和存储层。主机层:在数据中心的生产区和交换区的业务系统中,主机主要进行信息处理和数据库运行,在主机端安装HBA卡用于建立数据访问通道。由于主业务系统是典型的OLTP应用,所以应用对数据访问性能的要求非常高,为了满足这一要求,主机端需要多块HBA卡,提供多条数据通道,通过安装HDLM数据通道管理软件,可以提

14、供多通道之间的流量负载均衡,确保高性能的数据访问。另一方面,对于生产系统这样关键的系统,链路的安全性需要得到保证,HDLM同样可以提供数据通道之间的失败切换功能。网络层:SAN网络中网络层是非常关键的一个部分,它负责将主机和存储系统连接在一起,并且提供一个高灵活性、高扩展性的环境,以适应业务系统不断发展带来的主机和存储系统的扩展。在SAN网络设计中,我们采用冗余的网络设计,按照本项目的要求,我们全新配置2台Brocade6520交换机构成冗余FABRIC,为主机和存储系统提供冗余的、可持续发展的连接路径。存储层:存储层或者说整个SAN网络存储系统的核心设备是磁盘阵列,在数据中心存储系统中,我们

15、建议配置两台高端存储设备做同步实现“0”数据丢失的保护;建议采用高性能、高可扩展性、功能强大的磁盘阵列系统VSP G1000通用存储平台。VSP G1000存储平台的出现,完全改变了存储业界的工业标准,致使各个竞争友商的产品又一次处于落后状态。VSP G1000磁盘存储系统是业界唯一可以保证100数据可用性的系统,整个系统采用全冗余的交换式结构设计,没有任何单点故障,双独立供电接口与内部N+1电源模块,冗余散热风扇,RAID技术保护方式,全局动态热备份盘包,多独立Cache板设计,支持镜像写缓存技术,所有缓存都是NVS保护的,保证系统高可靠性和实现724365天不停机运行要求。VSP G1000存储系统也是最易维修的系统。系统的所有部件均支持热插拔和不停机进行更换、扩容和不停机地微码升级。当微码出现问题时可

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 建筑/环境 > 施工组织

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号