2024年3月31日发(作者:)
本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面
本文概不涉及
版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途
考试环境:
1台物理机:
3台虚拟机:
第一题:请配置一个高可用集群,要求如下:
1.集群名称:cluster0
2.集群默认用户的密码请设置为:redhat
解:
1.三个节点通过yum安装集群组件:
yum –y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all
如果太长,记不住可以这样
yum –y install pcs fence*
2. 三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2
systemctl disable firewalld
systemctl stop firewalld
或
firewall-cmd - -permanent - -add-service=http #后续题里面会有
http服务
firewall-cmd - -permanent - -add-service=high-availablity #集群服务
firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下
fence端口打开
firewall-cmd - -permanent - -add-port=1229/udp #udp协议下
fence端口打开
firewall-cmd - -reload #防火墙策略刷新,使
其即时生效
请注意上文中单 - 和双 - -的区别
3. 三个节点启动pcsd服务
systemctl enable pcsd ; systemctl start pcsd
4.单节点效验虚拟机是否符合集群要求
pcs cluster auth node{a,b,c}.e #此命令单节点运行
即可,命令中的那个大括号为正则表达式代表和的关系
输入集群默认用户:hacluster 密码:redhat
提示Authorized代表配置是没有问题的
5. pcs cluster setup --name cluster0 node{a,b,c}.
#建立名称为cluster0的集群 集群内主机名称为nodea、nodeb、nodec
6. pcs cluster enable --all
#将集群设置为开机自启,这里先不要用start命令启动集群
第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂
背景:
1.这里我们使用fence_xvm方式来配置集群fence功能
2.环境里面需要在物理机上使用:dd if=/dev/urandom
of=/etc/cluster/fence_ bs=1K count=4 这条命令创建fence密钥
“fence_”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理
上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,
环境配置,这里就不多讲了
解:
cluster start --all #启动集群
stonith create fence_nodea fence_xvm port=”nodea”
pcmk_host_list="" #单节点输入即可
pcs stonith create fence_nodeb fence_xvm port=”nodeb”
pcmk_host_list=""
pcs stonith create fence_nodec fence_xvm port=”nodec”
pcmk_host_list=""
stonith show
pcs stonith --full
pcs status #查看fence服务是否启动,配置是否正常如下图所示
如上所示代表集群fence功能正常,集群状态正常
第三题,配置集群的日志文件为本地/var/log目录下的
解:
/etc/corosync/
最下面
logging {
to_syslog: yes在这行下面添加:
to_file: yes
logfile: /var/log/
}
绿色这2行
然后:按ESC在冒号后面输入wq 保存退出
重启集群服务
pcs cluster stop --all
pcs cluster start --all
cat /var/log/
查看是否有内容,如下图所示:
代表成功将日志文件改写定位
第四题,配置集群报警邮箱地址为student@
资源名称为:ClusterAlert
解:
1. pcs resource create clustermonitor
email="student@" subject=ClusterAlert
clustergroup
第七题和第八题一起来,配置集群iscsi磁盘和多路径
背景:这里先做7/8/9/10 再做5/6
1. yum -y install iscsi-initiator-utils device-mapper-multipath
mailto
--group
装iscsi和多路径包
2. vim /etc/iscsi/
编辑iscsi配置文件改为:InitiatorName=e:nodea
另外2台机器分别改为:InitiatorName=e:nodeb
InitiatorName=e:nodec
保存后三台机器都要改下链接刷新值
sed -i ‘s/120/5/g ‘ /etc/iscsi/
从2分钟改为5秒
3. iscsiadm -m discovery -t st -p 192.168.1.9:3260
iscsiadm -m discovery -t st -p 192.168.2.9:3260
iscsiadm -m node -l
配置iscsi链接,如下图所示
fdisk -l 查看磁盘
4.配置多路径软件
mpathconf --enable
启用多路径配置文件
修改 vim /etc/
在最后的大括号中添加 : devnode “^vd[a-z]” 如下图所示:
保存退出
5.输入multipath -v3
multipath -ll
将2个盘虚拟为1个,fdisk -l 查看结果
如图所示将sda和sdb 虚拟为mpatha
第九题,配置集群资源磁盘锁和文件系统
resource create dlm controld op monitor interval=30s on-fail=fence
clone interleave=true
ordered=true
pcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone
interleave=true ordered=true
创建dlm和clvmd这2个集群资源
constraint order start dlm-clone then clvmd-clone
设置先启动dlm 再启动 clvmd
pcs constraint colocation add clvmd-clone with dlm-clone
设置clvmd随dlm一起启动
-y install dlm lvm2-cluster gfs2-utils
安装dlm锁、lvm2和gfs2文件系统
lvmconf --enable-cluster
启用lvm集群管理功能
systemctl stop e
停止本地lvm服务
pcs property set no-quorum-policy=freeze 配置no-quorum-policy为freeze
te /dev/mapper/mpatha
vgcreate -Ay -cy clustervg /dev/mapper/mpatha
lvcreate -L 1G -n servicedata clustervg
2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata
创建pv vg lv 并格式化为gfs2文件系统
按y 然后回车,格式化
格式化完毕
第十题,创建集群文件系统clusterfs
解:
1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata
directory=/var/www/ fstype="gfs2" options="noatime" op monitor interval=10s
on-fail=fence clone interleave=true
单节点输入即可
resource show clusterfs 查看资源
3. pcs constraint order start clvmd-clone then clusterfs-clone
配置启动顺序先启锁再启文件系统
4. pcs constraint colocation add clusterfs-clone with clvmd-clone
锁成功启动后,启动文件系统
第五题和第六题
配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运
行,如果nodeb宕掉,资源会顺利漂移到nodec上
解:
1. yum -y install httpd 安装阿帕奇包
2. cd /var/www/html
3. cat >><< EOF 自己写一个网页文件,考试的时候会给你一个写好的
4. pcs resource create clusterservice apache --group clustergroup
pcs resource create clusterip IPaddr2 ip=172.25.0.88 cidr_netmask=24 --group
clustergroup
pcs constraint order start clusterfs-clone then clustergroup
创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源
如下图所示:
5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行
pcs constraint location clustergroup prefers
pcs constraint location clustergroup avoids
6. pcs config
查看集群的全部配置信息
7.打开网页172.25.0.88 看看是否有内容
将节点nodeb poweroff后 查看网页是否依然能够打开
在节点nodec上pcs status 查看群集状态:
资源全部在nodec上,代表集群功能正常,全部题目完成


发布评论