RHC高可用科目题库.docx

上传人:s****u 文档编号:12766976 上传时间:2020-05-23 格式:DOCX 页数:8 大小:508.03KB
返回 下载 相关 举报
RHC高可用科目题库.docx_第1页
第1页 / 共8页
RHC高可用科目题库.docx_第2页
第2页 / 共8页
RHC高可用科目题库.docx_第3页
第3页 / 共8页
点击查看更多>>
资源描述
本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面本文概不涉及版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途考试环境:1台物理机:classroom.example.com3台虚拟机:1.nodea.private.example.com 2.nodeb.private.example.com 3.nodec.private.example.com第一题:请配置一个高可用集群,要求如下:1.集群名称:cluster02.集群默认用户的密码请设置为:redhat解:1.三个节点通过yum安装集群组件:yum y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all如果太长,记不住可以这样yum y install pcs fence*2. 三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2systemctldisable firewalldsystemctl stop firewalld或firewall-cmd - -permanent - -add-service=http #后续题里面会有http服务firewall-cmd - -permanent - -add-service=high-availablity #集群服务firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下fence端口打开firewall-cmd - -permanent - -add-port=1229/udp #udp协议下fence端口打开firewall-cmd - -reload #防火墙策略刷新,使其即时生效请注意上文中单 - 和双 - -的区别3. 三个节点启动pcsd服务systemctl enable pcsd ; systemctl start pcsd4.单节点效验虚拟机是否符合集群要求pcs cluster auth nodea,b,c.private.example #此命令单节点运行即可,命令中的那个大括号为正则表达式代表和的关系输入集群默认用户:hacluster 密码:redhat提示Authorized代表配置是没有问题的5. pcs cluster setup -name cluster0 nodea,b,c.private.example.com #建立名称为cluster0的集群 集群内主机名称为nodea、nodeb、nodec6. pcs cluster enable -all#将集群设置为开机自启,这里先不要用start命令启动集群第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂背景:1.这里我们使用fence_xvm方式来配置集群fence功能2.环境里面需要在物理机上使用:dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=1K count=4 这条命令创建fence密钥 “fence_xvm.key”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,环境配置,这里就不多讲了解:1.pcs cluster start -all #启动集群2.pcs stonith create fence_nodea fence_xvm port=”nodea” pcmk_host_list=nodea.private.example.com #单节点输入即可pcs stonith create fence_nodeb fence_xvm port=”nodeb” pcmk_host_list=nodeb.private.example.compcs stonith create fence_nodec fence_xvm port=”nodec” pcmk_host_list=nodec.private.example.com3.pcs stonith show pcs stonith -full pcs status #查看fence服务是否启动,配置是否正常如下图所示如上所示代表集群fence功能正常,集群状态正常第三题,配置集群的日志文件为本地/var/log目录下的nodea.log nodeb.log nodec.log解:1.vim /etc/corosync/corosync.conf最下面logging to_syslog: yes在这行下面添加:to_file: yeslogfile: /var/log/nodea.log绿色这2行然后:按ESC在冒号后面输入wq 保存退出重启集群服务pcs cluster stop -allpcs cluster start -allcat /var/log/nodea.log查看是否有内容,如下图所示:代表成功将日志文件改写定位第四题,配置集群报警邮箱地址为studentworkstations.example.com资源名称为:ClusterAlert解:1. pcs resource create clustermonitor mailto email=studentworkstation.example.com subject=ClusterAlert -group clustergroup第七题和第八题一起来,配置集群iscsi磁盘和多路径背景:这里先做7/8/9/10 再做5/61. yum -y install iscsi-initiator-utils device-mapper-multipath装iscsi和多路径包2. vim /etc/iscsi/initiatorname.iscsi编辑iscsi配置文件改为:InitiatorName=iqn.2015-06.com.example:nodea另外2台机器分别改为:InitiatorName=iqn.2015-06.com.example:nodebInitiatorName=iqn.2015-06.com.example:nodec保存后三台机器都要改下链接刷新值sed -i s/120/5/g /etc/iscsi/iscsi.conf从2分钟改为5秒3. iscsiadm -m discovery -t st -p 192.168.1.9:3260iscsiadm -m discovery -t st -p 192.168.2.9:3260iscsiadm -m node -l配置iscsi链接,如下图所示fdisk -l 查看磁盘4.配置多路径软件mpathconf -enable启用多路径配置文件修改 vim /etc/multipath.conf在最后的大括号中添加 : devnode “vda-z” 如下图所示:保存退出5.输入multipath -v3multipath -ll将2个盘虚拟为1个,fdisk -l 查看结果如图所示将sda和sdb 虚拟为mpatha第九题,配置集群资源磁盘锁和文件系统1.pcs resource create dlm controld op monitor interval=30s on-fail=fence clone interleave=true ordered=truepcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone interleave=true ordered=true创建dlm和clvmd这2个集群资源2.pcs constraint order start dlm-clone then clvmd-clone设置先启动dlm 再启动 clvmdpcs constraint colocation add clvmd-clone with dlm-clone设置clvmd随dlm一起启动3.yum -y install dlm lvm2-cluster gfs2-utils安装dlm锁、lvm2和gfs2文件系统lvmconf -enable-cluster启用lvm集群管理功能systemctl stop lvm2-lvmetad.service停止本地lvm服务pcs property set no-quorum-policy=freeze 配置no-quorum-policy为freeze4.pvcreate /dev/mapper/mpathavgcreate -Ay -cy clustervg /dev/mapper/mpathalvcreate -L 1G -n servicedata clustervgmkfs.gfs2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata创建pv vg lv 并格式化为gfs2文件系统按y 然后回车,格式化格式化完毕第十题,创建集群文件系统clusterfs解:1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata directory=/var/www/ fstype=gfs2 options=noatime op monitor interval=10s on-fail=fence clone interleave=true单节点输入即可2.pcs resource show clusterfs 查看资源3. pcs constraint order start clvmd-clone then clusterfs-clone配置启动顺序先启锁再启文件系统4. pcs constraint colocation add clusterfs-clone with clvmd-clone锁成功启动后,启动文件系统第五题和第六题配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运行,如果nodeb宕掉,资源会顺利漂移到nodec上解:1. yum -y install httpd 安装阿帕奇包2. cd /var/www/html3. cat index.html EOF 自己写一个网页文件,考试的时候会给你一个写好的4. pcs resource create clusterservice apache -group clustergroup pcs resource create clusterip IPaddr2 ip=172.25.0.88 cidr_netmask=24 -group clustergrouppcs constraint order start clusterfs-clone then clustergroup创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源如下图所示:5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行pcs constraint location clustergroup prefers nodeb.private.example.compcs constraint location clustergroup avoids nodea.private.example.com6. pcs config查看集群的全部配置信息7.打开网页172.25.0.88 看看是否有内容将节点nodeb poweroff后 查看网页是否依然能够打开在节点nodec上pcs status 查看群集状态:资源全部在nodec上,代表集群功能正常,全部题目完成
展开阅读全文
相关资源
相关搜索

当前位置:首页 > 图纸专区 > 考试试卷


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!