Centos7构建HA集群

上传人:夏** 文档编号:479650600 上传时间:2024-01-12 格式:DOCX 页数:8 大小:20.29KB
返回 下载 相关 举报
Centos7构建HA集群_第1页
第1页 / 共8页
Centos7构建HA集群_第2页
第2页 / 共8页
Centos7构建HA集群_第3页
第3页 / 共8页
Centos7构建HA集群_第4页
第4页 / 共8页
Centos7构建HA集群_第5页
第5页 / 共8页
点击查看更多>>
资源描述

《Centos7构建HA集群》由会员分享,可在线阅读,更多相关《Centos7构建HA集群(8页珍藏版)》请在金锄头文库上搜索。

1、CENTOS6上支持的 RHCS组件包主要有 cman (心跳管理)、luci+ricci(配置工具)、rgmanager (资源管理),通过图形化配置相当简单,但是自 CENTOS开始,系统已经不再集 成RHCSt件,并且在rpmfind上找不到支持 centos7的RHCS1件包,在CENTOS冲默认采 用corosync (心跳管理)、pacemaker (资源管理)、pcs (配置工具)同样可以构建 HA集群, 配置方法较之前有很大区别,但是原理相似。一、系统环境配置、修改名称hostnamectl set-hostname node01两台机器修改关闭防火墙、SELINUX配置IP、

2、修改HOSTS禁止防火墙和selinux# systemctl disable firewalld# systemctl stop firewalld修改 /etc/sysconfig/selinux确保SELINUX=disabled ,然后执行 setenforce 0 或者reboot服务器以生效设置防火墙规则(如果关闭防火墙则不用配置)# firewall-cmd -permanent -add-service=high-availability# firewall-cmd -add-service=high-availability 配置IP地址及网关、DNSvi /etc/sysc

3、onfig/network-scripts/ifcfg-eth0 #编辑配置文件,添加修改以下内容BOOTPROTO=static #启用静态 IP 地址ONBOOT=yes肝启自动启用网络连接IPADDR=般置IP地址NETMASK= #置子网掩码GATEWAY=1#置网关DNS1=献置主DNSDNS2=献置备DNSIPV6INIT=no # 禁止 IPV6配置HOSTS两边一样。rootnode01 # cat /etc/hostsnode01node02vip # 集群IP二、集群环境准备两台机器启动PCSDsystemctl startsystemctl enable两台机器 pass

4、wd hacluster输入同一个密码 hacluster配置节点之间的相互认证pcs cluster auth node01 node02rootnode01 # pcs cluster auth node01 node02Username: haclusterPassword:node01: Authorizednode02: Authorized出现以下显示表示认证成功。rootnode02 # pcs cluster auth node01 node02node01: Already authorizednode02: Already authorized各节点之间时间同步在node1

5、和node2分别进行时间同步,可以使用ntp实现。rootnode1 # ntpdate .Redirecting to /bin/systemctl stop Redirecting to /bin/systemctl stop Killing any remaining services. Removing all cluster configuration files. node01: Succeeded node02: Succeededpcs在执行以上命令时会生产及修改文件,问 corosync的配置文件,为 pacemaker的配置 文件。这两个配置文件是集群的核心配置,重装系统时

6、建议做好这两个配置文件的备份。开启集群设置集群自动启动开启集群pcs cluster start -allpcs cluster enable -allpcs cluster status查看集群状态当有半数以上的节点在线时,这个集群就认为自己拥有法定人数了 ,是“合法”的,换而 言之就是下面的公式:total_nodes 2 * active_nodes ,也就是说假设集群中有 4个节点, 但是活动节点有 3个,42*3,即是合法的集群,如果活动节点有2个,4=2*2不能满足total_nodes 2 * active_nodes 了,这个集群就非法了。因此在双节点的集群中只有当两者都在线时

7、才是合法的的这个规则会让“双节点集群” 毫无意义,但是我们可以控制Pacemaker发现集群达不到法定人数时候的行为。简单来说,我们告诉集群忽略它。在两个节点的情况下设置以下值pcs property set no-quorum-policy=ignore集群故障时候服务迁移pcs resource defaults migration-threshold=1查看集群状态rootnode01 # pcs cluster statusCluster Status:Last updated: Tue Sep 16 06:35:31 2014Last change: Tue Sep 16 06:35

8、:24 2014 via crmd on node02Stack: corosyncCurrent DC: node02 (2) - partition with quorumVersion: 2 Nodes configured0 Resources configuredPCSD Status:node01: Onlinenode02: Online查看集群成员rootnode01 # corosync-cmapctl |grep members(u64) = 0(str) = r(0) ip(u32) = 1(str) = joined(u64) = 0(str) = r(0) ip(u3

9、2) = 1(str) = joined查看成员信息rootnode01 # pcs status corosyncMembership informationNodeid Votes Name1 1 node01 (local)2 1 node02查看XMLrootnode01 # pcs cluster cib检查配置文件,发现提示没有STONIT啾备。rootnode01 # crm_verify -L -Verror:unpack_resources:Resource start-up disabled since no STONITHresources have been defin

10、ederror: unpack_resources: Eitherconfigure some or disable STONITH with thestonith-enabled optionerror: unpack_resources: NOTE: Clusters with shared data need STONITH toensure data integrityErrors found during check: config not valid暂时关闭stonish ,后面再详细讲讲stonish的配置。pcs property set stonith-enabled=fal

11、seip= cidr_netmask=24 op monitor配置集群IPpcs resource create vip ocf:heartbeat:IPaddr2 interval=30svip为自定义的一个集群IP的名称,监控时间为30S。测试浮动IP地址在集群中能否正常切换:停 node01 的集群服务 pcs cluster stop node01在node02上查看状态rootnode02 # pcs statusCluster name: nasclusterLast updated: Tue Sep 16 07:28:33 2014Last change: Tue Sep 16

12、 07:26:41 2014 via cibadmin on node01Stack: corosyncCurrent DC: node02 (2) - partition with quorumVersion: Nodes configured1 Resources configuredOnline: node02 OFFLINE: node01 Full list of resources:vip (ocf:heartbeat:IPaddr2): Startednode02 # 此条表示 vip 在 node02上执行了PCSD Status:node01: Onlinenode02: O

13、nlineDaemon Status:corosync: active/enabledpacemaker: active/enabled pcsd: active/disabled在node01恢复后,为防止 node02资源迁回node01 (迁来迁去对还是会对业务有一定影响) pcs resource defaults resource-stickiness=100pcs resource defaults四、创建GFS2文件系统-p lock_dlm -j 2 -t nascluster:nas /dev/my_vg/gfsdata配置dlm锁监控时间pcs cluster cib dl

14、m_cfg #由于非常重要,为避免出错不建议直接修改,故生产一个dlm_cfg文件,将配置写入 dlm_cfg文件后,再将dlm_cfg写入中。pcs -f dlm_cfg resource create dlm ocf:pacemaker:controld op monitor interval=60spcs -f dlm_cfg resource clone dlm clone-max=2 clone-node-max=1pcs -f dlm_cfg resource show pcs cluster cib-push dlm_cfg 普及一下dlm锁的知识:Distributed Loc

15、k Manager ,简称 DLM是一个分布式锁管理器,它是RHCS勺一个底层基础构件,=同时也为集群提供了一个公用的锁运行机制 =DLM运行在每个节点上=,GFS通过 锁管理器的机制来同步访问文件系统的元数据。CLVM通过锁管理器来同步更新数据到LVM卷和卷组。DLM 不需要设定锁管理服务器,它采用对等的锁管理方式,大大提高了处理性能。同时,DLM避免了单个节点失败需要整体恢复的性能瓶颈。另外,DLM的请求是本地的,不需要网络请求,因此请求会立即生效。最后,DLM通过分层机制,可以实现多个锁空间的并行锁模查看状态rootnode01 nas# pcs statusCluster name: nasclusterLast updated: Tue Sep 16 07:48:09 2014Last change: Tue Sep 16 07:44:08 2014 via cibadmin on node01

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 演讲稿/致辞

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号