这里将要操作的系统结构是这样的:Oracle 10g R2(10205)RAC 5 Node + RHEL 5.10 + OCFS2。
其中,打算新增的磁盘设备大小:1958.5 GB。

当前系统的环境如下所示:
节点一、五的状态:

节点二、三、四的状态:

可以看到,在节点一五上,打算新增的磁盘的盘符为:/dev/sdd1,而在节点二三四上,却是:/dev/sdc1。
这是需要注意的情况,正常情况下,各个节点的盘符应该是一致的,但不一致也是可以操作的。

看一下OCFS2的状态:

这个状态在各个节点必须一致。

在本文中,所涉及的操作是新增一个OCFS2的磁盘,并挂载,并不会涉及到操作包含Oracle RAC的OCFS盘。(尽量不涉及,因为上文成熟了在这个OCFS环境中,同一块共享盘在不同的节点上表现的盘符不同,所以不排除需要涉及到启停OCFS服务的操作,这就需要影响RAC的服务连续性了。)
但是为了防止意外,最好在开始接下来操作前,对数据库做好备份等操作。

设置DISPLAY环境变量:

查看OCFS2的配置文件:cluster.conf的当前状态:

该文件的配置在各个节点中也应该是一样的。

创建未来OCFS2的新增共享磁盘要用到的挂载点:/data2

开启OCFS2CONSOLE工具:

ocfs2console_1

ocfs2console_2

ocfs2console_3

ocfs2console_4
在这一步继续前,先看看当前新增共享盘的状态:

ocfs2console_5

ocfs2console_6

ocfs2console_7

ocfs2console_8

ocfs2console_9
这时候查看文件系统的状态:
节点一的状态:

节点二三四五的状态:

从上面的状态可以看到,当前只有节点一应用了OCFS2CONSOLE的配置变更,其他四个节点都没有感受到配置的变更。
看下面的命令反馈,你会更明显的看到节点一五与节点二三四的差别:

对于节点五

对于节点二三四
1.停掉RAC:

2.停掉OCFS2服务:

重新启动OCFS:

挂载新的共享磁盘:

以上是在节点二的操作,节点三、四,如法炮制。

最后,全部挂载成功:

最后,把之前卸掉的OCFS2的盘重新挂载起来,然后恢复Oracle 10g的RAC:
启动10g RAC:/etc/init.d/init.crs start

注:
在文首的几步做OCFS2CONSOLE的Format的时候,需要确认你操作的盘真的没有人挂载或者正在使用,否则Format确认,那么上面的数据会全部丢失,找都找不回来。(或者说,费很大力气才能找回来)
如果工作交接不到位,这是很容易出娄子的点!!
——————————————————————————-
Done。

1 thought on “Oracle:使用OCFS2格式化磁盘,并挂载”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

隐藏
变装