下载

5下载券

加入VIP
  • 专属下载特权
  • 现金文档折扣购买
  • VIP免费专区
  • 千万文档免费下载

上传资料

关闭

关闭

关闭

封号提示

内容

首页 RHEL 5.4 CLUSTER安装配置

RHEL 5.4 CLUSTER安装配置.pdf

RHEL 5.4 CLUSTER安装配置

大王
2011-04-09 0人阅读 举报 0 0 暂无简介

简介:本文档为《RHEL 5.4 CLUSTER安装配置pdf》,可适用于IT/计算机领域

RHELCLUSTER安装配置环境:两台IBMXHPXP磁盘阵列X配置:单口FCHBA卡个以太网口软件:RHELRedHatcluster软件GFS软件一、RHEL操作系统及群集软件安装安装过程在此就省略了具体过程可参考各厂商PC服务器的操作系统安装文档。在安装过程中有一点注意在RHEL版本以后已经将RedHatCluster及GFS软件集成在操作系统安装介质中如果安裝过程中有输入产品序列号并选择安裝全部套件则会自动安裝RedHatCluster及GFS软件若是安裝时沒有输入产品序列号则不会安裝RedHatCluster及GFS软件则必须架设好YUMServer后再利用systemconfigpackages进行安裝只要勾选ClusterStorage(GFS软件)及Clustering(RedHatCluster软件)即可。二、存储划lun及mapping在存储划lun中必须注意要将lun同时mapping给需要做cluster的主机如果在集群配置过程中药做Qdisk的话同时还需要再划一个G左右大小的lun。存储配置的过程对于各个厂商的产品各有不同在此就省略了。在磁盘阵列配置完后对两台机器进行重起使用fdisk–l命令检查主机都认到了盘。三、群集配置过程。、做双网卡的bonding在etcsysconfignetworkscripts下创建ifcfgbond文件#catifcfgbondDEVICE=bondBOOTPROTO=noneIPADDR=NETMASK=ONBOOT=yesGATEWAY=TYPE=Ethernet修改eth和eth配置文件#catifcfgethDEVICE=ethBOOTPROTO=noneHWADDR=:C::B::B#注意必须将物理网卡的MAC地址写入其中MASTER=bondSLAVE=yesONBOOT=yesUSERCTL=yes#catifcfgethDEVICE=ethBOOTPROTO=noneHWADDR=:C::B::B#注意必须将物理网卡的MAC地址写入其中MASTER=bondSLAVE=yesONBOOT=yesUSERCTL=yes修改etcmodprobeconf添加如下内容:aliasbondbondingoptionsbondmiimon=mode=#servicenetworkrestart在rclocal中添加:Ifenslavebondetheth在做双网卡bonding过程中必须注意的是在修改需要做bonding的网卡的配置文件中必须确保该网卡的MAC地址也写入其中。否则在重起网络服务后会出现报错无法识别到该网卡用ifconfig–a查看的话会发现该网卡变成tmp状态。在查找相关资料后发现这个为RHEL系统的bug,希望在以后的update版本中能解决这个问题。、配置IP及hosts文件在配置完成bonding,以及IP地址后修改两台机器的hosts文件。rootproducTweb~#moreetchosts#Donotremovethefollowingline,orvariousprograms#thatrequirenetworkfunctionalitywillfaillocalhostlocaldomainlocalhost::localhostlocaldomainlocalhostproductwebproductwebproductwebproductweb用scp命令将productweb的hosts文件同步到producwebrootproductweb~#scpetchostsproductweb:etcTheauthenticityofhost'productweb()'can'tbeestablishedRSAkeyfingerprintis:f:af:a:d:c:a:ed::::c::::fAreyousureyouwanttocontinueconnecting(yesno)yesWarning:Permanentlyadded'productweb,'(RSA)tothelistofknownhostsrootproductweb'spassword:hostsKBs:、建立GFS文件系统用fdisk–l命令查看硬盘rootproductweb~#fdisklDiskdevsda:GB,bytesheads,sectorstrack,cylindersUnits=cylindersof*=bytesDeviceBootStartEndBlocksIdSystemdevsda*LinuxdevsdaLinuxdevsdaLinuxswapSolarisdevsdaExtendeddevsdaLinuxDiskdevsdb:GB,bytesheads,sectorstrack,cylindersUnits=cylindersof*=bytes建立PVrootproductweb~#pvcreatedevsdbPhysicalvolume"devsdb"successfullycreated建立VGrootproductweb~#vgcreatevgdevsdbVolumegroup"vg"successfullycreated建立LVrootproductweb~#vgs#查看VG,也可用vgdisplay详细查看VG#PV#LV#SNAttrVSizeVFreeVgwznGGrootproductweb~#pvs#查看PV,也可用pvdisplay详细查看PVVGFmtAttrPSizePFreedevsdbvglvmaGGrootproductweb~#lvcreateLGnlvwebvgRoundingupsizetofullphysicalextentGBInsufficientfreeextents()involumegroupvg:required#注意建立LV时必须留有余量否则会报错rootproductweb~#lvcreateLGnlvwebvgLogicalvolume"lvweb"createdrootproductweb~#lvs#查看LV,也可用lvdisplay详细查看LVVGAttrLSizeOriginSnapMoveLogCopyConvertlvwebvgwiaG在新建的LV上建立gfs文件系统rootproductweb~#mkfsgfsplockdlm–twebcluster:webjdevvglvwebThiswilldestroyanydataondevvglvwebAreyousureyouwanttoproceedynyDevice:devvglvwebBlocksize:DeviceSizeGB(blocks)FilesystemSize:GB(blocks)Journals:ResourceGroups:LockingProtocol:"lockdlm"LockTable:"webcluster:web"UUID:ECABBFBCBCCplockdlm#定义为DLM锁方式如果不加此参数当在两个系统中同时挂载此分区时就会像EXT格式一样两个系统的信息不能同步tprocuctweb:web#DLM锁所在的表名字webcluster应与clusterconf中Cluster的name相同j#GFS分区中最多支持多少个节点同时挂载这个可以在使用中动态调整devvglvweb#要格式化的分区建完gfs文件系统以后此时如果挂载文件系统会出现以下报错因为集群服务和gfs相关的服务都没起来所以要确保建好集群配置后再挂载。集群相关服务cman服务也无法启动要确保停止防火墙和其他无用的服务并且配置完群集后才能启动。、修改相关服务启动状态并停止一些无用的服务并重启。chkconfigkudzuoffchkconfigsendmailoffchkconfignfsoffchkconfigsmartdoffchkconfigcupsoffchkconfigrhnsdoffchkconfigiptablesoffchkconfigacpidoffchkconfigapmdoffchkconfiggfsonchkconfiggfsonchkconfigclvmdonchkconfigcmanonchkconifgrgmanageron、在另外一台服务器上productweb上对以上服务做同上的操作。同时rootproductweb~#partprobe#刷新系统分区表rootproductweb~#vgscanrootproductweb~#pvscanrootproductweb~#lvscan#以上命令扫描出存储上的卷组和逻辑卷rootproductweb~#lnsusrsbincmantoolsbincmantoolrootproductweb~#lnsusrsbincmantoolsbincmantool#用systemconfigcluster保存配置文件启动集群之后无法看到集群状态需要在各个节点上都建链接以解决Rhel的这个bugs四、使用systemconfigcluster配置集群下面将使用systemconfigcluster图形化集群配置工具配置apache(httpd)高可用集群、在productweb上运行systemconfigcluster命令图systemconfigcluster配置界面首次运行systemconfigcluster集群配置程序时它会提示集群配置文件etcclusterclusterconf不存在用户可以从别处打开一个集群配置文件(OpenExisting)或者创建一个新的集群(CreateNewConfiguration)。、单击"CreateNewConfiguration"按钮弹出下图所示的对话框在"Chooseanameforthecluser"文件框输入"webcluster"作为集群的名字然后单击"确定"、集群配置主界面如下图所示、选择窗口左侧树形菜单中的"ClusterNodes"项、单击"AddaClusterNode"按钮以增加集群节点弹出下图所示的对话框。在"ClusterNodeName"文本框中输入集群webcluster的FQDN域名、重复第部添加集群节点productweb、选择窗口左侧树形菜单中的"FenceDevices"项如图所示单击"AddaFenceDevice"按钮、弹出对话框在下拉列表中选择"VirtualMachineFencing"项,在"Name"文本框中输入"xenfence"作为Fence设备名、选择窗口左侧树形菜单中的"FailoverDomains"项界面如图所示单击"CreateaFailoverDomain"按钮故障倒换域、弹出如图对话框在"NameforNewFailoverDomain"文本框中输入"webinfo"作为故障倒换域名、接着出现界面单击"AvailableClusterNodes"下拉菜单依次选择集群节点productweb,productweb。添加完后选择窗口左侧节点并在右边选择"PrioritizedList"复选框单击下方上下箭头图标按钮高速节点优先级如图所示、选择systemconfigcluster主窗口左侧树形菜单中的"Resources"项单击右下角的"CreateaResource"按钮、弹出类似图所示对话框单击下拉列表选择"IPAddress"项并配置集群IP地址为(浮动ip)、重复第步添加apache(httpd)脚本资源如图所示。在"Name"文本框中输入"apache"作为脚本资源名在"File(withpath)"文本框中指定apache初始化脚本路径"etcinitdhttpd"。创建IP资源创建脚本资源、选择systemconfigcluster主窗口左侧树形菜单中的"Services"项如图所示。单击右下角的"CreateaService"按钮、弹出界面在"Name"文本框中输入集群服务名"www"、按OK,弹出如图所示的界面在"FailoverDomain"下拉列表中选择之前创建的故障倒换域"webfo"单击"AddaSharedResourcetothisservice"按钮在弹出的对话框中选择已经创建的"apache"脚本资源返回原先的图面单击"AttachaShareResourcetotheselection"按钮在弹出如图所示的对话框中选择之前创建的IP地址资源()完成之后的界面如图所示集群服务配置()选择资源集群服务配置()选择资源集群服务配置()、在systemconfigcluster的主窗口中选择”文件””保存”,对文件进行保存单击主窗口右上角的”SendtoCluster”按钮将更新后的集群配置文件同步到其它节点、依次在productweb,productweb上启动集群服务并配置它们开机随系统启动#servicecmanstart#servicergmanagerstart、重新进入systemconfigcluster配置界面选择”ClusterManagement”标签如图所示。可以看到集群节点已经正在运行。使用”Enable””Disable””Restart”按钮进行启用禁用重启集群等服务、分依次在productweb,productweb上将已创建的gfs文件系统挂载到本地目录上并设置为开机自动启动rootproductweb~#mountdevvglvwebwebrootproductweb~#vietcfstabLABEL=extdefaultsLABEL=datadataextdefaultsLABEL=datadataextdefaultstmpfsdevshmtmpfsdefaultsdevptsdevptsdevptsgid=,mode=sysfssyssysfsdefaultsprocprocprocdefaultsLABEL=SWAPsdaswapswapdefaults至此群集配置结束可以使用clustat–l命令或者clustat命令来查看群集服务状态。切换服务:clusvcadmrappmproductweb该命令将运行在productweb上的appp服务切换到prodcutweb上使用ping命令测试群集服务切换时可以看到在切换过程中会丢两个包注:、关于自动mount磁盘阵列卷问题本次项目实施过程中,遇到一个关于自动mountGFS格式的共享磁盘阵列卷空间的问题。按照redhat工程师的说法,有三种解决方式,分别是:A:在ClusterManagement配置过程中,将GFS格式化的共享磁盘以Resource(资源)的方式加入进来B:修改etcfstab,添加一句:devvglvwebwebdefaultC:写一个简单脚本,给以root的可执行权限,内容如:#!binbashmounttgfsdevvglvwebweb将文件放在web目录下,然后在etcrcdrclocal文件中加上此句。上述三种方法,redhat工程师建议使用第一或第二种,本次项目中,经过试验有一个现象,台服务器重新启动后,只有第一台服务器成功自动mount,而第二台服务器则没有实现自动mount解答:(来源chinaunix论坛http:linuxchinaunixnetbbsthreadhtml)A:第一种情况是正常现象。不管普通文件系统还是GFS集群文件系统在集群启动之后只有运行生产服务的机器可以挂载如果按照第一种方法配置的话。只是说在这种情况下文件系统作为共享资源之一有同时被两台以上的主机挂载并同时执行并发写操作的能力。至于第二种情况出现问题的确需要出错信息来判断。但是如果集群配置正确的话无非是几个必要的服务都要启动。在RHEL下面有:cmanrgmangergfs。当然如果用了qdisk的话还要有qdiskd。同时需要确认GFS所需要的包是否装全。以及需要确定你的etcfstab的写法。至于第三种情况我估计你第二种情况的问题解决了。第三种基本上就迎刃而解了。A:编辑etcfstab文件devvglvwebwebgfsnetdev官方手册上是这么写的。、关于fence设备的问题。由于本次cluster安装采用的是IBM服务器其内置的fence设备为BMC远程控制卡该卡和集成以太网卡接口是集成在一起的并且是选件需要额外付费购买故没有配置fence设备。不过根据官方文档fence设备是必须配置的选项如果没有配置则在集群服务时会出现资源被锁死无法切换的情况(如断开其中一个节点的电源等)。编写时间:作者:陈中兵

用户评价(0)

关闭

新课改视野下建构高中语文教学实验成果报告(32KB)

抱歉,积分不足下载失败,请稍后再试!

提示

试读已结束,如需要继续阅读或者下载,敬请购买!

文档小程序码

使用微信“扫一扫”扫码寻找文档

1

打开微信

2

扫描小程序码

3

发布寻找信息

4

等待寻找结果

我知道了
评分:

/16

RHEL 5.4 CLUSTER安装配置

VIP

在线
客服

免费
邮箱

爱问共享资料服务号

扫描关注领取更多福利