基于VMware搭建RHCS故障转移实验

上传人:206****923 文档编号:90397116 上传时间:2019-06-11 格式:DOCX 页数:39 大小:2.90MB
返回 下载 相关 举报
基于VMware搭建RHCS故障转移实验_第1页
第1页 / 共39页
基于VMware搭建RHCS故障转移实验_第2页
第2页 / 共39页
基于VMware搭建RHCS故障转移实验_第3页
第3页 / 共39页
基于VMware搭建RHCS故障转移实验_第4页
第4页 / 共39页
基于VMware搭建RHCS故障转移实验_第5页
第5页 / 共39页
点击查看更多>>
资源描述

《基于VMware搭建RHCS故障转移实验》由会员分享,可在线阅读,更多相关《基于VMware搭建RHCS故障转移实验(39页珍藏版)》请在金锄头文库上搜索。

1、基于VMware搭建RHCS故障转移实验(Xray整理)1 简介1.1 实验环境在PC机上使用VMware Workstation 搭建两台虚拟服务器,安装Red Hat Enterprise Linux (版本6.5)32位,每台虚拟机设置1 processors,3 cores,1G内存,2张网卡(备用),1个40G的本地硬盘,一个20G的share盘。1.2 实验任务 使用基于Web管理方式的Conga工具创建、管理两节点Cluster,然后以一个简单的web服务(httpd)作切换测试。Httpd成功后,测试HA_LVM.。1.3 基本概念 Conga: 分为Luci(管理工具,Ser

2、ver端)及 Ricci(用于接收和传递Luci指令的服务程序,Agent)两部分,其中Luci安装在任一管理工作站上,Ricci安装在被管理的Cluster节点上。 脑裂(Head-split):当前激活的Cluster 节点因为处理器忙或者其他原因暂时停止响应时,其他节点可能误认为该节点”已死”,从而夺取共享磁盘的访问权,此时极有可能假死节点重新对共享文件系统产生读写操作,从而导致共享磁盘文件系统损坏。 Fence:为了防止”脑裂”现象的产生,使用fence设备对”故障”节点进行”屏蔽”措施,如重启该设备,从而尝试恢复其节点功能. Fence 设备可以是交换机,或者IPMI等. 这里我们采

3、用PE2900的BMC充当Fence设备。 Cman:cluster manager,Cluster组件之一,用于cluster的配置,控制,查询,仲裁计算等。 Rgmanager:Resource group manager,Cluster组件之一,提供用户定义的资源组切换服务。 Failover domain: cluster 环境中服务failover的区域。1.4 原理介绍 cman集群管理器:cman是一个基于内核的对称通用集群管理器。它由两部分组成:连接管理器(cnxman),用于处理成员、消息、投票数、事件通知和过渡;服务管理器(SM),用于处理那些需要通过各种方式进行集群管理的

4、应用及外部系统。cman是RHCS中最核心的服务,可通过系统中的serivce命令进行启/停操作;DLM、GFS、CLVM及Fence都依赖于cman群集管理器。 rgmanager资料组管理器:rgmanager(Resource Group Manager)基于cman并使用DLM动态锁管理机制。与cman一样,rgmanager也是RHCS中的一个核心服务,可通过系统中的serivce命令进行启/停操作;rgmanager管理并为集群中的Service(服务)和Resources(资源)提供Failover错误切换功能。 Service(服务):每个服务都被指定存在于一个Failover

5、 Domain中,并与多个Resources(资源)关联。每个服务可以理解为实际操作中的一个应用,如Web服务器、Java中间件、数据库、文件共享系统、邮件系统等。这些应用在运行时不但对应用程序本身有要求(如某个运行指令或多个运行脚本的组合),还要提供对诸如虚拟IP、文件系统等资源的支持。 Failover Domain(错误切换域):每个Failover Domain都与两个或两个以上的Node(服务器节点)进行绑定,Failover Domain指定了集群中某个Service运行时的范围,也就是指定此Service将会由哪些服务器提供Failover错误切换功能。每个Node都允许与多个F

6、ailover Domain进行绑定,也就是说每个Node都可以为多个Service服务,因此可以实现主动/主动(双活动)方式的集群配置。 Resources(资源):Resources指的是组成一个应用所需的各种组件,通常包括:应用程序、虚拟IP、文件系统。资源与Service组合时,往往还会体现出一定的层次关系,例如:通常系统都要求确认虚拟IP及文件系统都已经正常连接及挂载后,才可以运行某个应用程序,这个顺序一旦调转,就会使应用程序运行出错。 Fence机制:在RHCS集群运行时,为了避免因出现不可预知的情况而造成的脑裂现象(如:心跳线断连,此时两台服务器都无法找到对方,无法向对方发出操作

7、指令,都各自认为自己是主节点;又或者主服务器系统崩溃,系统能接收到备用服务器的操作指令,但无法返回运行情况的确认信号,导致备用服务器无法获知系统资源的使用情况),系统要求通过Fence机制来保障系统切换时的I/O使用安全。如上所述,Fence主要就是通过服务器或存储本身的硬件管理接口,又或者是外部电源管理设备,来对服务器或存储发起直接的硬件管理指令,控制服务器或存储链路的开关。因此,Fence机制也被称为I/O屏障技术。当脑裂发生时彻底断开问题服务器的所有I/O连接,保证问题服务器不能对集群中的I/O资源(共享的文件系统资源)进行任何操作,严格保证集群环境中企业核心数据的完整性。2 安装配置H

8、A2.1 创建虚拟机在PC机上安装VMware Workstation8.0,并创建创建两台虚拟机,按照实验环境要求设置,2.2 创建共享磁盘用vmware-vdiskmanager 创建 shareDisk 并且磁盘适配器的类型是lsi contoller的20GB大小的硬盘 。打开MSDOS,进入,进入VM安装目录,输入下面命令:vmware-vdiskmanager -c -t 0 -s 20GB -a lsilogic D:VMRedHatshareDisk.vmdk vmware-vdiskmanager参考:-c 创建虚拟磁盘。你必须用-a, -s 和 -t 并指定选项参数,然后你

9、需要指定所要创建的虚拟磁盘文件的文件名。-a ide | buslogic | lsilogic 指定磁盘适配器的类型。你在创建新的虚拟磁盘时必须指定其类型。选择以下类型之一:ide IDE接口适配器buslogic BusLogic SCSI接口适配器lsilogic LSI Logic SCSI接口适配器-s GB|MB 指定虚拟磁盘的大小。确定大小用GB或MB做单位。你必须在创建磁盘时指定其大小。尽管你必须指定虚拟磁盘的大小,但当你增长它的大小时,你不能用-s这个选项。可以指定的磁盘大小规定:IDE和SCSI适配器都为最小100MB,最大950GB。-t 0|1|2|3 你在创建一个新的

10、虚拟磁盘或者重新配置一个虚拟磁盘时必须指定虚拟磁盘的类型。指定以下类型之一:0 创建一个包含在单一虚拟文件中的可增长虚拟磁盘1 创建一个被分割为每个文件2GB大小的可增长虚拟磁盘2 创建一个包含在单一虚拟文件中的预分配虚拟磁盘3 创建一个被分割为每个文件2GB大小的预分配虚拟磁盘2.3 配置共享磁盘分别到两台虚拟机的目录,打开Red Hat Linux 1.vmx 和Red Hat Linux 2.vmx, 在最后空白处添加这几段内容scsi1.present = TRUEscsi1.virtualDev = lsilogicscsi1.sharedBus = virtual这段是打开 scs

11、i1上的使用,并且设置成virtual, controller设置成lsilogic然后添加scsi1:1.present = TRUEscsi1:1.mode = independent-persistentscsi1:1.filename = D:VMRedHatshareDisk.vmdk disk.locking = falsediskLib.dataCacheMaxSize = 0diskLib.dataCacheMaxReadAheadSize = 0diskLib.DataCacheMinReadAheadSize = 0diskLib.dataCachePageSize = 4

12、096diskLib.maxUnsyncedWrites = 0设置完后,保存,然后重新启动VM,打开VM的配置,可以看到多了一个盘2.4 安装linux系统将下载好的linux安装ios 加到虚拟机的光驱中,然后启动2.5 创建共享盘的lv安装完系统后,在一台机上使用fdisk命令和标准 LVM 和文件系统命令生成逻辑卷和文件系统。 fdisk l查看分区 使用fdisk /dev/dsb命令创建LVM分区 在sdb1上创建卷组和逻辑卷,并创建ext4的文件系统 重启两台服务器后,通过fdisk l可以看到文件系统。 创建挂载目录并挂载(节点2上也要创建目录)mkdir /webdb 或者挂

13、载到/var/www/html#mount /dev/share_vg/ha_lv /webdb/挂载文件系统#df h好像可以不用设置自动挂载,由HA自动挂载 #vi /etc/fstab/dev/crmsapdg/lv_sap /usr/sap ext4 defaults 1 12.6 创建集群存储GFS2 先手动启动cman和clvmd命令,以便监控集群卷的中存储设备的状态: 分别在node1,node2启动CLVM的集成cluster锁服务 #lvmconf -enable-cluster #chkconfig clvmd on# service cman start# service

14、 clvmd start# service rgmanager start 关闭selinux修改/etc/selinux/config 文件将SELINUX=enforcing改为SELINUX=disabled重启机器不关闭selinux,在node2挂载gfs2时会出错以下操作在节点1端执行: 先用fdisk l查看,发现sdb分为sb1(10G),在上面创建sdb2 在/dev/sdb上创建sdb2 创建物理卷和卷组和逻辑卷:# pvcreate /dev/sdb2PV 创建完后,重启,在另一台上pvs,看看是否同步,不同步关闭电源重启# pvscan# vgcreate data_v

15、g /dev/sdb2# lvcreate -L 5G -n db_lv data_vg如果提示错误如下:Error locking on node node2: Volume group for uuid not found: QkM2JYKg5EfFuFL6LzJsg7oAfK4zVrkytMVzdziWDmVhBGggTsbr47W1HDEu8FdBFailed to activate new LV.出现以上提示,需要在node2上创建物理卷node2节点上:# pvcreate /dev/sdb1 创建后需要重启然后回到node1创建lv 在新建的逻辑卷上创建gfs2文件系统:# mkfs.gfs2 -j 2 -p lock_dlm -t testweb:data /dev/data_vg/db_lv如果node2找不到,在node2上也执行。参数说明:l -p:用来指定gfs的锁机制,一般情况下会选择lo

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 中学教育 > 其它中学文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号