[原]在红旗5.0上基于ASM方式安装Oracle 10g RAC [2]

 让我们继续昨天的安装。
三、准备共享磁盘
1、准备OCFS2共享磁盘
OCFS2 是一个集群文件系统,它允许集群中的所有节点通过标准文件系统接口并发访问设备。这样便可以对需要在集群中运行的应用程序进行轻松地管理。
红旗DC Server 4.1 SP1上有OCFS 第 1 版,它使 Oracle RAC 用户可以运行集群化数据库而不必处理 RAW 设备。文件系统是为存储数据库相关文件如数据文件、控制文件、重做日志、归档日志等设计的。
而红旗DC Server 5.0上已经包括了OCFS第 2 版, OCFS2 则是作为一个通用集群文件系统而设计的。使用它,用户不但可以在共享磁盘上存储与数据库相关的文件,而且还可以存储 Oracle 二进制文件和配置文件(共享的 Oracle Home),从而使 RAC 的管理变得更简单。
当前,我们将使用 OCFS2 存储需要由 Oracle 集群件软件共享的两个文件。(除了这两个文件以外,还将使用此空间存储所有 Oracle RAC 实例的共享 SPFILE。)
正如红旗DC 5.0上安装oracle 10g R2 RAC写过的,只有采用smp核心的才需要手动添加rpm包。详细的请参考上面的文章配置。

# rpm -ivh ocfs2-2.6.9-11.AXsmp-0.99.14-1.2AX.i386.rpm

然后,启动服务:

# /etc/init.d/o2cb load

◎启动ocfs2console配置工具(两台机器上都要配置)
ocfs2console是用于在集群中的每个节点上生成和配置 /etc/ocfs2/cluster.conf 文件,而且还可以创建和启动集群堆栈 O2CB。如果 /etc/ocfs2/cluster.conf 文件不存在,ocfs2console 工具将创建该文件以及一个默认集群名为 ocfs2 的新集群堆栈服务 (O2CB)。
该操作以 root 用户帐户在集群的所有节点上执行:

# ocfs2console &

点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片# cat /etc/ocfs2/cluster.conf
node:
       ip_port = 7777
       ip_address = 219.142.7.143
       number = 0
       name = ora01
       cluster = ocfs2

node:
       ip_port = 7777
       ip_address = 219.142.7.144
       number = 1
       name = ora02
       cluster = ocfs2

cluster:
       node_count = 2
       name = ocfs2

※按同样的步骤,在节点2上再重复一次。(不能直接拷贝配置文件)
◎格式化并挂载ocfs2分区(只在主节点上操作)
在格式化前,需要确认o2cb服务处于联机状态,因为它需要确保在集群的某个节点上未挂载该卷。查看联机状态可以用:

# service o2cb status
Module "configfs": Loaded
Filesystem "configfs": Mounted
Module "ocfs2_nodemanager": Loaded
Module "ocfs2_dlm": Loaded
Module "ocfs2_dlmfs": Loaded
Filesystem "ocfs2_dlmfs": Mounted
Checking cluster ocfs2: Online
Checking heartbeat: Not active

格式化ocfs2分区可以用mkfs.ocfs2命令,或ocfs2console控制台。
★使用ocfs2console进行,使用菜单 [Tasks] – [Format],如下:
点击在新窗口中浏览此图片点击在新窗口中浏览此图片# mkfs.ocfs2 -b 4K -C 32K -N 4 -L oradatafiles /dev/sdb1

★然后是挂载分区

[color=#FF1493](要使用datavolume选项)[/color]

使用图标[mount],输入下面的信息:
点击在新窗口中浏览此图片点击在新窗口中浏览此图片# mount -t ocfs2 -o datavolume /dev/sdb1 /u02/oradata/orcl

★查看挂载信息:

引用
# mount
/dev/sda1 on / type ext3 (rw)
none on /proc type proc (rw)
none on /sys type sysfs (rw)
none on /dev/pts type devpts (rw,gid=5,mode=620)
none on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
configfs on /config type configfs (rw)
ocfs2_dlmfs on /dlm type ocfs2_dlmfs (rw)
/dev/sdb1 on /u02/oradata/orcl type ocfs2 (rw,datavolume)

★在节点2上也进行同样的挂载。(不用再次格式化了)
※注意:根据Oracle关于OCFS2的说明,Oracle 数据库用户必须使用 datavolume 挂载选项安装任何将包含表决磁盘文件、集群注册表 (OCR)、数据文件、重做日志、归档日志以及控制文件的卷,以确保 Oracle 进程打开包含 o_direct 标志的文件。其他作用则不需要该选项。
◎测试并设定自动挂载(两台机器上都进行)
★进行简单测试:在两个节点上分别建立文件,查看另一节点能否同步看到该文件。成功即可。
★修改挂载点权限(两台机器上都进行)
# chown -R oracle.dba /u02/oradata/orcl
# chmod 775 /u02/oradata/orcl
★设定自动挂载
修改/etc/fstab文件,添加:

引用
/dev/sdb1     /u02/oradata/orcl    ocfs2   _netdev,datavolume     0 0

※注意:_netdev 挂载选项是 OCFS2 卷所必需的;它指示将在网络启动后挂载该卷以及在关闭网络前卸载该卷。
修改完毕后,最后再重复mount一次该分区,以确保一切正常:

# umount /u02/oradata/orcl
# mount /u02/oradata/orcl

★通过o2cb服务可以查看到心跳已经建立成功:

# service o2cb status
Module "configfs": Loaded
Filesystem "configfs": Mounted
Module "ocfs2_nodemanager": Loaded
Module "ocfs2_dlm": Loaded
Module "ocfs2_dlmfs": Loaded
Filesystem "ocfs2_dlmfs": Mounted
Checking cluster ocfs2: Online
Checking heartbeat: Active

◎设定自动自动o2cb服务(两台机器上都进行)

# chkconfig –list o2cb
o2cb            0:off   1:off   2:off   3:off   4:off   5:off   6:off
# umount /u02/oradata/orcl/
# /etc/init.d/o2cb offline ocfs2
Cleaning heartbeat on ocfs2: OK
Stopping cluster ocfs2: OK
Unloading module "ocfs2": OK
# /etc/init.d/o2cb unload
Unmounting ocfs2_dlmfs filesystem: OK
Unloading module "ocfs2_dlmfs": OK
Unmounting configfs filesystem: OK
Unloading module "configfs": OK
# /etc/init.d/o2cb configure
Configuring the O2CB driver.
Load O2CB driver on boot (y/n) [n]: y
Cluster to start on boot (Enter "none" to clear) [ocfs2]:
Writing O2CB configuration: OK
Loading module "configfs": OK
Mounting configfs filesystem at /config: OK
Loading module "ocfs2_nodemanager": OK
Loading module "ocfs2_dlm": OK
Loading module "ocfs2_dlmfs": OK
Mounting ocfs2_dlmfs filesystem at /dlm: OK
Starting cluster ocfs2: OK
# chkconfig –level 345 o2cb on
# chkconfig –list o2cb
o2cb            0:off   1:off   2:off   3:on    4:on   5:on    6:off

同样的步骤,在节点2上再操作一次。
◎到这,ocfs2分区已经设定完毕。
在部分版本的ocfs2上,可能会根据实际采用的共享盘柜情况,调整 O2CB 心跳阈值。这主要是因为对表决磁盘的访问太慢(超过了 O2CB 心跳阈值),会导致 Oracle 集群件软件(以及节点)崩溃。
可以通过修改/etc/sysconfig/o2cb 文件,添加:
# O2CB_HEARTBEAT_THRESHOLD:Iterations before a node is considered dead.
O2CB_HEARTBEAT_THRESHOLD=301
强制的把心跳改为301,也就是:

引用
[隔离时间(秒)] = (O2CB_HEARTBEAT_THRESHOLD – 1) * 2
(301 – 1) * 2 = 600 秒

该修改只在出现问题的时候操作,一般不要改动它。而且,红旗DC Server 5.0上使用的ocfs2版本也不需要增加该值。

2、准备ASM自动存储管理(重点)
ASM 用于使管理员不必再管理单个文件和驱动器。ASM 内置在 Oracle 内核中。通过它,DBA 可以全天候管理 Oracle 集群实例的单个实例以集群实例的数千个磁盘驱动器。将把所有要用于 Oracle 的文件和目录包含在磁盘组中。ASM 跨所有可用磁盘驱动器并行执行负载平衡,以防止热点并最大限度地提高性能(甚至对于快速更改数据使用模式也是如此)。
我将在这里配置 ASM,以将其用作所有 Oracle 物理数据库文件(数据、联机重做日志、控制文件、归档重做日志)以及闪回恢复区的文件系统/卷管理器。 以代替原来使用raw设备或OCFS2的方式。
◎安装ASM内核模块
从红旗的安装光盘CD2上,找到该模块,并安装:

# rpm -ivh oracleasm-2.6.9-5.ELsmp-2.0.0-1.4AX.i386.rpm

◎加载ASM内核模块

# /etc/init.d/oracleasm configure
Configuring the Oracle ASM library driver.
Default user to own the driver interface []:oracle
Default group to own the driver interface []:dba
Start Oracle ASM library driver on boot (y/n) [n]:y
Fix permissions of Oracle ASM disks on boot (y/n) [y]:y
Writing Oracle ASM library driver configuration:[  OK  ]
Creating /dev/oracleasm mount point:[  OK  ]
Loading module "oracleasm":[  OK  ]
Mounting ASMlib driver filesystem:[  OK  ]
Scanning system for ASM disks:[  OK  ]

◎创建ASM磁盘(只在一个节点上操作)

引用
# /etc/init.d/oracleasm createdisk VOL1 /dev/sdb2
Marking disk “/dev/sdb2” as an ASM disk [  OK  ]
# /etc/init.d/oracleasm createdisk VOL2 /dev/sdb3
Marking disk “/dev/sdb3” as an ASM disk [  OK  ]
# /etc/init.d/oracleasm createdisk VOL3 /dev/sdb4
Marking disk “/dev/sdb4” as an ASM disk [ OK  ]

★列出所有ASM磁盘

# /etc/init.d/oracleasm listdisks
VOL1
VOL2
VOL3

★在另一个节点上扫描一次

[root@ora02 opt]# /etc/init.d/oracleasm scandisks
Scanning system for ASM disks:                             [  OK  ]
[root@ora02 opt]# /etc/init.d/oracleasm listdisks
VOL1
VOL2
VOL3

★到这,ASM共享磁盘已经建立完毕。若增加错磁盘,可以用下面的命令删掉:

# /etc/init.d/oracleasm deletedisk VOL4
Removing ASM disk "VOL4" [  OK  ]

四、安装Oracle 10g RAC 集群软件
累了,明天继续吧!

Oracle Database 10g R2/11g R2 Win/Linux 版本迅雷下载【中转】
Asianux 3.0 安装Oracle 11g R2界面失去响应的问题
本地终端无法登陆系统故障
红旗十周年用户大会——广州站(邀请函)
在Windows下使用红旗HA Cluster  配置工具

原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/113772.html

(0)
上一篇 2021年8月27日
下一篇 2021年8月27日

相关推荐

发表回复

登录后才能评论