2024年3月31日发(作者:)

本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面

本文概不涉及

版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途

考试环境:

1台物理机:

3台虚拟机:

第一题:请配置一个高可用集群,要求如下:

1.集群名称:cluster0

2.集群默认用户的密码请设置为:redhat

解:

1.三个节点通过yum安装集群组件:

yum –y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all

如果太长,记不住可以这样

yum –y install pcs fence*

2. 三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2

systemctl disable firewalld

systemctl stop firewalld

firewall-cmd - -permanent - -add-service=http #后续题里面会有

http服务

firewall-cmd - -permanent - -add-service=high-availablity #集群服务

firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下

fence端口打开

firewall-cmd - -permanent - -add-port=1229/udp #udp协议下

fence端口打开

firewall-cmd - -reload #防火墙策略刷新,使

其即时生效

请注意上文中单 - 和双 - -的区别

3. 三个节点启动pcsd服务

systemctl enable pcsd ; systemctl start pcsd

4.单节点效验虚拟机是否符合集群要求

pcs cluster auth node{a,b,c}.e #此命令单节点运行

即可,命令中的那个大括号为正则表达式代表和的关系

输入集群默认用户:hacluster 密码:redhat

提示Authorized代表配置是没有问题的

5. pcs cluster setup --name cluster0 node{a,b,c}.

#建立名称为cluster0的集群 集群内主机名称为nodea、nodeb、nodec

6. pcs cluster enable --all

#将集群设置为开机自启,这里先不要用start命令启动集群

第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂

背景:

1.这里我们使用fence_xvm方式来配置集群fence功能

2.环境里面需要在物理机上使用:dd if=/dev/urandom

of=/etc/cluster/fence_ bs=1K count=4 这条命令创建fence密钥

“fence_”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理

上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,

环境配置,这里就不多讲了

解:

cluster start --all #启动集群

stonith create fence_nodea fence_xvm port=”nodea”

pcmk_host_list="" #单节点输入即可

pcs stonith create fence_nodeb fence_xvm port=”nodeb”

pcmk_host_list=""

pcs stonith create fence_nodec fence_xvm port=”nodec”

pcmk_host_list=""

stonith show

pcs stonith --full

pcs status #查看fence服务是否启动,配置是否正常如下图所示

如上所示代表集群fence功能正常,集群状态正常

第三题,配置集群的日志文件为本地/var/log目录下的

解:

/etc/corosync/

最下面

logging {

to_syslog: yes在这行下面添加:

to_file: yes

logfile: /var/log/

}

绿色这2行

然后:按ESC在冒号后面输入wq 保存退出

重启集群服务

pcs cluster stop --all

pcs cluster start --all

cat /var/log/

查看是否有内容,如下图所示:

代表成功将日志文件改写定位

第四题,配置集群报警邮箱地址为student@

资源名称为:ClusterAlert

解:

1. pcs resource create clustermonitor

email="student@" subject=ClusterAlert

clustergroup

第七题和第八题一起来,配置集群iscsi磁盘和多路径

背景:这里先做7/8/9/10 再做5/6

1. yum -y install iscsi-initiator-utils device-mapper-multipath

mailto

--group

装iscsi和多路径包

2. vim /etc/iscsi/

编辑iscsi配置文件改为:InitiatorName=e:nodea

另外2台机器分别改为:InitiatorName=e:nodeb

InitiatorName=e:nodec

保存后三台机器都要改下链接刷新值

sed -i ‘s/120/5/g ‘ /etc/iscsi/

从2分钟改为5秒

3. iscsiadm -m discovery -t st -p 192.168.1.9:3260

iscsiadm -m discovery -t st -p 192.168.2.9:3260

iscsiadm -m node -l

配置iscsi链接,如下图所示

fdisk -l 查看磁盘

4.配置多路径软件

mpathconf --enable

启用多路径配置文件

修改 vim /etc/

在最后的大括号中添加 : devnode “^vd[a-z]” 如下图所示:

保存退出

5.输入multipath -v3

multipath -ll

将2个盘虚拟为1个,fdisk -l 查看结果

如图所示将sda和sdb 虚拟为mpatha

第九题,配置集群资源磁盘锁和文件系统

resource create dlm controld op monitor interval=30s on-fail=fence

clone interleave=true

ordered=true

pcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone

interleave=true ordered=true

创建dlm和clvmd这2个集群资源

constraint order start dlm-clone then clvmd-clone

设置先启动dlm 再启动 clvmd

pcs constraint colocation add clvmd-clone with dlm-clone

设置clvmd随dlm一起启动

-y install dlm lvm2-cluster gfs2-utils

安装dlm锁、lvm2和gfs2文件系统

lvmconf --enable-cluster

启用lvm集群管理功能

systemctl stop e

停止本地lvm服务

pcs property set no-quorum-policy=freeze 配置no-quorum-policy为freeze

te /dev/mapper/mpatha

vgcreate -Ay -cy clustervg /dev/mapper/mpatha

lvcreate -L 1G -n servicedata clustervg

2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata

创建pv vg lv 并格式化为gfs2文件系统

按y 然后回车,格式化

格式化完毕

第十题,创建集群文件系统clusterfs

解:

1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata

directory=/var/www/ fstype="gfs2" options="noatime" op monitor interval=10s

on-fail=fence clone interleave=true

单节点输入即可

resource show clusterfs 查看资源

3. pcs constraint order start clvmd-clone then clusterfs-clone

配置启动顺序先启锁再启文件系统

4. pcs constraint colocation add clusterfs-clone with clvmd-clone

锁成功启动后,启动文件系统

第五题和第六题

配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运

行,如果nodeb宕掉,资源会顺利漂移到nodec上

解:

1. yum -y install httpd 安装阿帕奇包

2. cd /var/www/html

3. cat >><< EOF 自己写一个网页文件,考试的时候会给你一个写好的

4. pcs resource create clusterservice apache --group clustergroup

pcs resource create clusterip IPaddr2 ip=172.25.0.88 cidr_netmask=24 --group

clustergroup

pcs constraint order start clusterfs-clone then clustergroup

创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源

如下图所示:

5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行

pcs constraint location clustergroup prefers

pcs constraint location clustergroup avoids

6. pcs config

查看集群的全部配置信息

7.打开网页172.25.0.88 看看是否有内容

将节点nodeb poweroff后 查看网页是否依然能够打开

在节点nodec上pcs status 查看群集状态:

资源全部在nodec上,代表集群功能正常,全部题目完成