内容发布更新时间 : 2024/11/17 0:22:16星期一 下面是文章的全部内容请认真阅读。
查看磁盘列表
[root@rac1 ~]# /etc/init.d/oracleasm listdisks
在节点rac2中,只需要配置ASM即可,然后扫描ASM磁盘列表,如果能看到说明共享配置成功。 配置ASM
[root@rac1 ~]# /etc/init.d/oracleasm configure 扫描磁盘
[root@rac1 ~]# /etc/init.d/oracleasm scandisks 查看列表
[root@rac1 ~]# /etc/init.d/oracleasm listdisks
可以看到VOL1和VOL2,说明配置共享成功。
三,安装
1,安装之前需要将文件上传到rac1,并进行解压。 怎么上传就不说了,很多上传工具,CRT,SSH均可以。 我是将文件上传到tmp目录下的,上传的是cpio.gz格式的文件 10201_clusterware_linux_x86_64.cpio.gz 10201_database_linux_x86_64.cpio.gz 解压命令:
[root@rac1 tmp]# zcat 10201_clusterware_linux_x86_64.cpio.gz | cpio -idmv [root@rac1 tmp]# zcat 10201_database_linux_x86_64.cpio.gz | cpio -idmv
解压之后,因为在tmp目录下,需要使用oracle用户安装,所有需要给oracle用户分配权限
[root@rac1 tmp]# chown -R oracle.oinstall clusterware [root@rac1 tmp]# chown -R 777 clusterware [root@rac1 tmp]# chown -R oracle.oinstall database [root@rac1 tmp]# chown -R 777 database
2,安装之前的环境检查
在安装之前,通常要检查当前的环境,命令如下:
[oracle@rac1 cluvfy]$ /tmp/clusterware/cluvfy/runcluvfy.sh stage -pre crsinst -n rac1,rac2 -verbose
系统可能会报错,比如说什么包需要安装,swap区过小,这些东西不用管他们,跳过即可,就像之前安装包检查,我明明安装了,可就是显示没安装,忽略错误,也能成功安装。
3,设置X server的访问权限,因为安装oracle要用到图形界面,所以oracle要具有这个权限,使用xhost +分配给所有用户
中间有个小问题,就是提示没有成功,这样只需要在环境变量中临时增加DISPLAY=:0即可。
4,安装clusterware
从rac1节点,切换到oracle用户,到clusterware目录进行如下命令即可 ./runInstaller.sh
集群的安装一般在开始不会出问题,最后会执行两个脚本
安装最后会有两个脚本需要执行,一般执行脚本也不会出问题,当两个脚本在两个节点执行完成后,在回到节点rac1,继续安装,这时会报错
遇到这个错误的时候,先不要关闭错误提示,到节点rac2中以root的身份运行 $CRS_HOME/bin/vipca
会发现无法运行,没关系继续往下看,这里有一个oracle的bug,解决办法如下
首先编辑vipca文件,找到如下内容:
Remove this workaround when the bug 3937317 is fixed arch=`uname -m`
if [ \then
LD_ASSUME_KERNEL=2.4.19
export LD_ASSUME_KERNEL fi
#End workaround #在fi 后新添加一行: unset LD_ASSUME_KERNEL 然后编辑srvctl文件,找到如下内容: LD_ASSUME_KERNEL=2.4.19 export LD_ASSUME_KERNEL #同样在其后新增加一行: unset LD_ASSUME_KERNEL
(以上内容修改在两个节点中都需要进行)
修改之后就可以运行了,然后就出现了VIP的配置界面,把VIP都绑定到eth0网卡,然后设置IP Alias Name,其他会自动根据HOSTS文件自动填写,然后就一直OK到最后。 检验CLUSTERWARE是否安装成功