重口味穿刺虐乳:Oracle RAC 10.2.0.1升级到10.2.0.4 --linux

来源:百度文库 编辑:九乡新闻网 时间:2024/04/29 07:17:10
1. 在linux1上停止进程


$ srvctl stop database -d orcl

$ srvctl stop nodeapps -n linux1

$ srvctl stop nodeapps -n linux2

$ /u01/app/oracle/product/crs/bin/crs_stop –all

    2. 解压更新包

    3. 在linux1的更新包目录下:

    $./runInstaller

    在界面选择:OraCrs10g_home

    4. 在两个节点上执行:

# /u01/app/oracle/product/crs/bin/crsctl stop crs
# /u01/app/oracle/product/crs/install/root102.sh

    5. 在linux1上执行:

$ srvctl stop database -d orcl
$ srvctl stop nodeapps -n linux1
$ srvctl stop nodeapps -n linux2
$ /u01/app/oracle/product/crs/bin/crs_stop –all

    6. 在linux1更新包目录下

    $./runInstaller

    在界面选择:OraDb10g_home1

    7. 在两个节点上执行:

#/u01/app/oracle/product/10.2.0/db_1/root.sh

    8. 在两个节点上执行:

#/etc/init.d/init.crs stop

    9. 在linux1上执行:

#/etc/init.d/init.crs start

$ sqlplus /nolog

SQL>CONN SYS AS SYSDBA
SQL> SHUTDOWN IMMEDIATE
SQL> STARTUP NOMOUNT
SQL> ALTER SYSTEM SET CLUSTER_DATABASE=FALSE SCOPE=spfile;
SQL> SHUTDOWN

SQL> STARTUP UPGRADE
SQL> @/u01/app/oracle/product/10.2.0/db_1/rdbms/admin/catupgrd.sql

SQL> SHUTDOWN IMMEDIATE

SQL> STARTUP
SQL> @/u01/app/oracle/product/10.2.0/db_1/rdbms/admin/utlrp.sql

SQL>ALTER SYSTEM SET CLUSTER_DATABASE=TRUE scope=spfile sid='*';

SQL> SHUTDOWN IMMEDIATE

SQL> STARTUP

    在两台节点上执行:

    #/u01/app/oracle/product/crs/bin/crsctl stop crs

    在linux2上执行:

    #/u01/app/oracle/product/crs/bin/crsctl start crs

    然后执行上面脚本

    10. 重启两个节点的crs (两个节点)

    #/etc/init.d/init.crs stop

    #/etc/init.d/init.crs start

 

    第 2 步:配置网络组件

    在节点 oradb5 上将所有网络地址添加到 /etc/hosts 文件。此外,要在集群的其他四个节点上交叉注册节点 oradb5 信息。

root@oradb5 root]# more /etc/hosts
127.0.0.1      localhost.localdomain localhost
192.168.2.10   oradb1.sumsky.net oradb1
192.168.2.20   oradb2.sumsky.net oradb2
192.168.2.30   oradb3.sumsky.net oradb3
192.168.2.40   oradb4.sumsky.net oradb4
192.168.2.50   oradb5.sumsky.net oradb5

#Private Network/interconnect
10.168.2.110   oradb1-priv.sumsky.net oradb1-priv
10.168.2.120   oradb2-priv.sumsky.net oradb2-priv
10.168.2.130   oradb3-priv.sumsky.net oradb3-priv
10.168.2.140   oradb4-priv.sumsky.net oradb4-priv
10.168.2.150   oradb5-priv.sumsky.net oradb5-priv


# VIP
192.168.2.15   oradb1-vip.sumsky.net oradb1-vip
192.168.2.25   oradb2-vip.sumsky.net oradb2-vip
192.168.2.35   oradb3-vip.sumsky.net oradb3-vip
192.168.2.45   oradb4-vip.sumsky.net oradb4-vip
192.168.2.55   oradb5-vip.sumsky.net oradb5-vip

    用 SSH 建立用户等效项。当向集群添加节点时,Orale 将在其中执行初始安装的节点的文件复制到该集群的新节点。这样的复制过程可以通过使用 ssh 协议(如果可用)来进行,也可以使用远程复制 (rcp) 来进行。为了使复制操作成功,RAC 节点上的 oracle 用户必须能够在无需提供密码或口令短语的情况下登录到新的 RAC 节点。

    当前,现有的四个节点配置为使用 ssh.要在新节点上配置 oracle 帐户来使用无需任何密码的 ssh,执行以下任务:

    1、为用户 oracle 创建身份验证密钥。要创建此密钥,请将当前目录更改为 oracle 用户的默认登录目录并执行以下操作:

[oracle@oradb5 oracle]$ ssh-keygen -t dsa -b 1024
Generating public/private dsa key pair.
Enter file in which to save the key (/home/oracle/.ssh/id_dsa):
Created directory '/home/oracle/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/oracle/.ssh/id_dsa.
Your public key has been saved in /home/oracle/.ssh/id_dsa.pub.
The key fingerprint is:
b6:07:42:ae:47:56:0a:a3:a5:bf:75:3e:21:85:8d:30 oracle@oradb5.sumsky.net
[oracle@oradb5 oracle]$

    2、从新节点生成的密钥应添加到所有节点上的 /home/oracle/.ssh/id_dsa/authorized_keys 文件中,这意味着每个节点都应包含集群中所有其他节点的密钥。

[oracle@oradb5 oracle]$ cd .ssh
[oracle@oradb5 .ssh]$ cat id_dsa.pub > authorized_keys

    当创建完密钥并将其复制到所有节点之后,oracle 用户帐户无需使用密码就可以从一个节点连接到另一个节点上的另一个 oracle 帐户。这允许 Oracle Universal Installer 将安装节点的文件复制到集群的其他节点。

    以下输出是从节点 oradb1 到节点 oradb5 显示 ssh 的验证。

[oracle@oradb1 oracle]$ ssh oradb1 hostname
oradb1.sumsky.net
[oracle@oradb1 oracle]$ ssh oradb5 hostname
Oradb5.sumsky.net
[oracle@oradb1 oracle]$ ssh oradb1-priv hostname
oradb1.sumsky.net
[oracle@oradb1 oracle]$ ssh oradb5-priv hostname
Oradb5.sumsky.net

    注意:首次执行这些测试时,操作系统将显示一个密钥并请求用户接受或拒绝。输入“Yes”将接受并注册此密钥。应该在其他所有节点上跨集群中的所有接口执行这些测试,但 VIP 除外。

 

 

    第 3 步:安装 Oracle 集群件

    Oracle 集群件已经安装在集群上;这里的任务是将新节点添加到集群配置中。要执行该任务,需要执行 Oracle 提供的名为 addnode 的实用程序,该工具位于 Clusterware 的主 oui/bin 目录中。Oracle 集群件有两个文件(Oracle 集群信息库 (OCR) 和 Oracle 集群同步服务 (CSS) 表决磁盘),它们包含有关该集群以及由 Oracle 集群件管理的应用程序的信息。这些文件需要使用关于新节点的信息进行更新。集群件安装过程的第一步是验证新节点是否准备好进行安装。

    集群验证。在 Oracle 数据库 10g 第 2 版中,Oracle 引入了一个称为 Oracle 集群验证实用程序 (CVU) 的新实用程序作为该集群件软件的一部分。使用适当的参数执行该实用程序可以确定集群状态。在该阶段,在安装 Oracle 集群件之前,应该执行两个验证:

    1、如果硬件和操作系统配置已经完成:

cluvfy stage -post hwos -n oradb1,oradb5
Performing post-checks for hardware and operating system setup
Checking node reachability...
Node reachability check passed from node "oradb1".
Checking user equivalence...
User equivalence check passed for user "oracle".
Checking node connectivity...
Node connectivity check passed for subnet "192.168.2.0" with node(s) oradb5,oradb1.
Node connectivity check passed for subnet "10.168.2.0" with node(s) oradb5,oradb1.
Suitable interfaces for the private interconnect on subnet "192.168.2.0":
oradb5 eth0:192.168.2.50 eth0:192.168.2.55
oradb1 eth0:192.168.2.10 eth0:192.168.2.15
Suitable interfaces for the private interconnect on subnet "10.168.2.0":
oradb5 eth1:10.168.2.150
oradb1 eth1:10.168.2.110
Checking shared storage accessibility...
Shared storage check failed on nodes "oradb5".
Post-check for hardware and operating system setup was unsuccessful on all the nodes.

    正如突出显示的部分一样,上面的验证失败于存储检查验证;节点 oradb5 无法查看存储设备。在这个特定示例中,磁盘没有足够的权限。

    如果忽略该错误继续安装,Oracle 集群件安装将失败。但如果在重新执行前解决了该错误,该验证步骤将成功,如下所示。

Checking shared storage accessibility...
Shared storage check passed on nodes "oradb5,oradb1".
Post-check for hardware and operating system setup was successful on all the nodes.

    2、在安装 Oracle 集群件之前请对节点列表中的所有节点执行相应的检查。

[oracle@oradb1 cluvfy]$ cluvfy stage -pre crsinst -n oradb1,oradb5
Performing pre-checks for cluster services setup
Checking node reachability...
Node reachability check passed from node "oradb1".
Checking user equivalence...
User equivalence check passed for user "oracle".
Checking administrative privileges...
User existence check passed for "oracle".
Group existence check passed for "oinstall".
Membership check for user "oracle" in group "oinstall" [as Primary] failed.
Check failed on nodes:
        oradb5,oradb1
Administrative privileges check passed.
Checking node connectivity...
Node connectivity check passed for subnet "192.168.2.0" with node(s) oradb5,oradb1.
Node connectivity check passed for subnet "10.168.2.0" with node(s) oradb5,oradb1.
Suitable interfaces for the private interconnect on subnet "192.168.2.0":
oradb5 eth0:192.168.2.50 eth0:192.168.2.55
oradb1 eth0:192.168.2.10 eth0:192.168.2.15
Suitable interfaces for the private interconnect on subnet "10.168.2.0":
oradb5 eth1:10.168.2.150
oradb1 eth1:10.168.2.110
Checking system requirements for 'crs'...
Total memory check passed.
Check failed on nodes:
        oradb5,oradb1
Free disk space check passed.
Swap space check passed.
System architecture check passed.
Kernel version check passed.
Package existence check passed for "make-3.79".
Package existence check passed for "binutils-2.14".
Package existence check passed for "gcc-3.2".
Package existence check passed for "glibc-2.3.2-95.27".
Package existence check passed for "compat-db-4.0.14-5".
Package existence check passed for "compat-gcc-7.3-2.96.128".
Package existence check passed for "compat-gcc-c++-7.3-2.96.128".
Package existence check passed for "compat-libstdc++-7.3-2.96.128".
Package existence check passed for "compat-libstdc++-devel-7.3-2.96.128".
Package existence check passed for "openmotif-2.2.3".
Package existence check passed for "setarch-1.3-1".
Group existence check passed for "dba".
Group existence check passed for "oinstall".
User existence check passed for "nobody".
System requirement failed for 'crs'
Pre-check for cluster services setup was successful on all the nodes.

 

 

    第 4 步:配置 Oracle 集群件

    运行 OUI 需要执行该安装程序的终端与 X-windows 兼容。否则,应安装相应的 X-windows 模拟器并使用以下语法通过 DISPLAY 命令调用此模拟器。

    export DISPLAY=:0.0

    例如:

    [oracle@oradb1 oracle]$export DISPLAY=192.168.2.101:0.0下一步是在新节点 oradb5 上配置集群件。为此,如前所述,Oracle 已经提供了一个新的称为 addNode.sh 的可执行文件,它位于 /oui/bin 目录。

    1、执行脚本 /oui/bin/addNode.sh。
    2、Welcome — 单击 Next。
    3、指定要通过添加来安装的集群节点 — 在该屏幕中,OUI 列出了集群的现有节点,并在下半个屏幕中列出了要添加到适当列中的新节点(一个或多个)信息。输入信息之后,单击 Next。

公共节点名称 私有节点名称 虚拟主机名称 oradb5 oradb5-priv oradb5-vip

    4、集群节点添加总结 — 验证新节点列在“New Nodes”下拉菜单之下并单击 Install。
    5、当需要的所有集群件组件从 oradb1 复制到 oradb5 之后,OUI 将提示执行三个文件:

/usr/app/oracle/oraInventory/orainstRoot.sh on node oradb5

[root@oradb5 oraInventory]# ./orainstRoot.sh
Changing permissions of /usr/app/oracle/oraInventory to 770.
Changing groupname of /usr/app/oracle/oraInventory to dba.

The execution of the script is complete
[root@oradb5 oraInventory]#

    /usr/app/oracle/product/10.2.0/crs/install/rootaddnode.sh on node oradb1.(addnoderoot.sh 文件将使用 srvctl 实用程序将新节点信息添加到 OCR.请注意下面脚本输出末尾的具有 nodeapps 参数的 srvctl 命令。)

[root@oradb1 install]# ./rootaddnode.sh
clscfg: EXISTING configuration version 3 detected.
clscfg: version 3 is 10G Release 2.
Attempting to add 1 new nodes to the configuration
Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.
node :
node 5: oradb5 oradb5-priv oradb5
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
/usr/app/oracle/product/10.2.0/crs/bin/srvctl
add nodeapps -n oradb5 -A oradb5-v ip/255.255.255.0/bond0
-o /usr/app/oracle/product/10.2.0/crs
[root@oradb1 install]#

    /usr/app/oracle/product/10.2.0/crs/root.sh on node oradb5.

[root@oradb5 crs]# ./root.sh
WARNING: directory '/usr/app/oracle/product/10.2.0' is not owned by root
WARNING: directory '/usr/app/oracle/product' is not owned by root
WARNING: directory '/usr/app/oracle' is not owned by root
Checking to see if Oracle CRS stack is already configured
/etc/oracle does not exist. Creating it now.

OCR backup directory '/usr/app/oracle/product/10.2.0/crs/cdata/SskyClst'
does not exist. Creating now
Setting the permissions on OCR backup directory
Setting up NS directories
Oracle Cluster Registry configuration upgraded successfully
WARNING: directory '/usr/app/oracle/product/10.2.0' is not owned by root
WARNING: directory '/usr/app/oracle/product' is not owned by root
WARNING: directory '/usr/app/oracle' is not owned by root
clscfg: EXISTING configuration version 3 detected.
clscfg: version 3 is 10G Release 2.
assigning default hostname oradb1 for node 1.
Successfully accumulated necessary OCR keys.
Using ports: CSS=49895 CRS=49896 EVMC=49898 and EVMR=49897.
node :
node 1: oradb1 oradb1-priv oradb1
node 2: oradb2 oradb2-priv oradb2
node 3: oradb3 oradb3-priv oradb3
node 4: oradb4 oradb4-priv oradb4
clscfg: Arguments check out successfully.

NO KEYS WERE WRITTEN. Supply -force parameter to override.
-force is destructive and will destroy any previous cluster
configuration.
Oracle Cluster Registry for cluster has already been initialized
Startup will be queued to init within 90 seconds.
Adding daemons to inittab
Expecting the CRS daemons to be up within 600 seconds.
CSS is active on these nodes.
        oradb1
        oradb2
        oradb3
        oradb4
        oradb5
CSS is active on all nodes.
Waiting for the Oracle CRSD and EVMD to start
Oracle CRS stack installed and running under init(1M)
Running vipca(silent) for configuring nodeapps
IP address "oradb-vip" has already been used.
Enter an unused IP address.

    产生错误“oradb-vip‘ has already been used”,因为 VIP 已经在所有节点(而非 oradb5)上进行了配置。重要的是在继续之前手动执行 VIPCA(虚拟 IP 配置助手)。

    使用 VIPCA 手动配置 VIP.与执行 OUI 相似,执行 VIPCA 要求运行该安装程序的终端与 X-windows 兼容。否则,应安装相应的 X-windows 模拟器并使用以下语法通过 DISPLAY 命令调用此模拟器:

    export DISPLAY=:0.0

    例如:

    [oracle@oradb1 oracle]$export  DISPLAY=192.168.2.101:0.0在节点 oradb1(或者执行添加节点过程的节点)上的命令提示符处执行 root.sh 之后,还要立即作为根调用 VIPCA.(VIPCA 还将在新节点上配置 GSD 和 ONS 资源。)

    I、Welcome — 单击 Next。
    II、第 1 步(共 2 步):网络接口 — 显示网络接口列表;选择 VIP 将分配/映射到的网络公共网络接口。通常是列表 (eth0) 中的第一个接口;但是,在这个特定情况中,由于针对私有互连启用了绑定而且该列表以字母次序显示,因此 bond0 接口将显示在列表顶部。完成后单击 Next。
    III、第 2 步(共 2 步):集群节点的虚拟 IP — 对于列表中的每个节点名,在适当的列中提供 VIP 别名和虚拟 IP 地址。完成后单击 Next。
    IV、总结 — 列出当前所选配置的总结。当所有设置正确后,单击 Finish。
    V、配置助手进度对话框 — 该屏幕将显示 VIP、GSD 和 ONS 配置过程的进度。VIPCA 提示后单击 OK。
    VI、配置结果 — 该屏幕将显示配置结果。单击 Exit 退出 VIPCA。

    完成 Oracle 集群件安装后,将在其各自目录中创建下列文件。

    集群件文件:

[root@oradb5 root]# ls -ltr /etc/init.d/init.*
-r-xr-xr-x    1 root     root     3197 Aug 13 23:32 /etc/init.d/init.evmd
-r-xr-xr-x    1 root     root    35401 Aug 13 23:32 /etc/init.d/init.cssd
-r-xr-xr-x    1 root     root     4721 Aug 13 23:32 /etc/init.d/init.crsd
-r-xr-xr-x    1 root     root     1951 Aug 13 23:32 /etc/init.d/init.crs
[root@oradb5 root]#

    使用以下条目更新了操作系统提供的 inittab 文件。

[root@oradb5 root]# tail -5 /etc/inittab
# Run xdm in runlevel 5
x:5:respawn:/etc/X11/prefdm -nodaemon
h1:35:respawn:/etc/init.d/init.evmd run >/dev/null 2>&1 h2:35:respawn:/etc/init.d/init.cssd fatal >/dev/null 2>&1 h3:35:respawn:/etc/init.d/init.crsd run >/dev/null 2>&1

    6、当列出的所有脚本都在所有节点上运行后,单击 OK。
    7、安装结束 — 单击 Exit。
    8、使用 olsnodes 命令验证集群件是否注册了所有节点。

[oracle@oradb1 oracle]$ olsnodes
oradb1
oradb2
oradb3
oradb4
oradb5
[oracle@oradb1 oracle]$

    9、使用 crs_stat 命令验证是否启动了集群服务。

[oracle@oradb1 oracle]$ crs_stat -t
Name           Type           Target    State     Host
------------------------------------------------------------
ora.oradb1.gsd application    ONLINE    ONLINE    oradb1
ora.oradb1.ons application    ONLINE    ONLINE    oradb1
ora.oradb1.vip application    ONLINE    ONLINE    oradb1
ora.oradb2.gsd application    ONLINE    ONLINE    oradb2
...
ora.oradb3.vip application    ONLINE    ONLINE    oradb3
ora.oradb4.gsd application    ONLINE    ONLINE    oradb4
ora.oradb4.ons application    ONLINE    ONLINE    oradb4
ora.oradb4.vip application    ONLINE    ONLINE    oradb4
ora.oradb5.gsd application    ONLINE    ONLINE    oradb5
ora.oradb5.ons application    ONLINE    ONLINE    oradb5
ora.oradb5.vip application    ONLINE    ONLINE    oradb5

    10、验证是否在 OS 级配置了 VIP 服务。配置虚拟 IP 地址并将其添加到 OS 网络配置并启动网络服务。VIP 配置可以使用 ifconfig 命令在 OS 级验证。

[oracle@oradb5 oracle]$ ifconfig -a
eth0     Link encap:Ethernet  HWaddr 00:90:27:B8:58:10
          inet addr:192.168.2.50  Bcast:192.168.2.255  Mask:255.255.255.0
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:123 errors:0 dropped:0 overruns:0 frame:0
          TX packets:67 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:583308844 (556.2 Mb)  TX bytes:4676477 (4.4 Mb)

eth0:1   Link encap:Ethernet  HWaddr 00:90:27:B8:58:10
          inet addr:192.168.2.55  Bcast:192.168.3.255  Mask:255.255.252.0
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:14631 errors:0 dropped:0 overruns:0 frame:0
          TX packets:21377 errors:0 dropped:0 overruns:0 carrier:0
       collisions:0 txqueuelen:1000
       RX bytes:8025681 (7.6 Mb)  TX bytes:600 (600.0 b)
       Interrupt:11 Base address:0x2400 Memory:41300000-41300038

    注意:eth0:1 指示它是基本主机 eth0 的 VIP 地址。当节点出现故障时,eth0:1 将移动到集群中的一个可用节点。故障切换服务器上的 VIP 的新标识符变为 eth0:2 或更高数值,具体情况取决于集群中哪些节点故障以及 VIP 移植到的其他节点。

 

 

    第 5 步:安装 Oracle 软件

    下一步是在新节点上安装 Oracle 软件。如前所述,Oracle 已经提供了一个新的称为 addNode.sh 的可执行文件,它位于 $ORACLE_HOME/oui/bin 目录。

    1、执行脚本 $ORACLE_HOME/oui/bin/addNode.sh。
    2、Welcome — 单击 Next。
    3、指定要通过添加来安装的集群节点 — 在该屏幕中,OUI 列出了集群的现有节点,并在下半个屏幕中列出了新节点(一个或多个)。选择节点 oradb5。输入信息之后,单击 Next。
    4、集群节点添加总结 — 验证新节点列在“New Nodes”下拉菜单之下并单击 Install 按钮。
    5、将 Oracle 软件复制到节点 oradb5 之后,OUI 将提示您以 root 用户的身份在另一个窗口中对集群中的新节点(一个或多个)执行 /usr/app/oracle/product/10.2.0/db_1/root.sh 脚本。

[root@oradb5 db_1]# ./root.sh
Running Oracle10 root.sh script...

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /usr/app/oracle/product/10.2.0/db_1

Enter the full pathname of the local bin directory: [/usr/local/bin]:
The file "dbhome" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]: y
   Copying dbhome to /usr/local/bin ...
The file "oraenv" already exists in /usr/local/bin.  Overwrite it? (y/n)
[n]: y
   Copying oraenv to /usr/local/bin ...
The file "coraenv" already exists in /usr/local/bin. Overwrite it? (y/n)
[n]: y
   Copying coraenv to /usr/local/bin ...

Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root.sh script.
Now product-specific root actions will be performed

    6、单击 OK(当 root.sh 在节点 oradb5 上运行后)。
    7、安装结束 — 单击 Exit。

    当安装 RDBMS 软件之后,比较好的做法是在进行下一步之前运行 netca.Netca 将配置需要的所有网络文件和参数,例如,监听程序、sql*net 和 tnsnames.ora 文件。

 

 

    第 6 步:添加新实例(一个或多个)

    DBCA 具有将附加实例添加到集群所需的所有选项。

    要求:

    1、在开始执行升级过程前,请创建数据库的完整冷备份。
    2、Oracle 集群件应该运行在所有节点上。

    1、Welcome 屏幕 — 选择 Oracle Real Application Cluster database 并单击 Next。
    2、第 1 步(共 7 步):操作 — 列出了可以使用 DBCA 执行的所有操作列表。选中 Instance Management,然后单击 Next。
    3、第 2 步(共 7 步):实例管理 — 列出了可以执行的实例管理操作列表。选中 Add an Instance,然后单击 Next。
    4、第 3 步(共 7 步):集群数据库列表 — 列出了该节点上运行的集群数据库列表。在本例中,运行在节点 oradb1 上的数据库是 SSKYDB;选择该数据库。在屏幕下半部分,DBCA 要求您“利用 SYSDBA 系统特权指定一个用户”:
Username:sys
Password:<     > 并单击 Next。
    5、第 4 步(共 7 步):集群数据库实例列表 — DBCA 将列出集群上当前可用的所有实例。验证是否列出了所有实例并单击 Next。/li>
    6、第 5 步(共 7 步):实例命名和节点选择 — DBCA 将列出序列中的下一个实例名并请求该节点来添加此实例。在我们的示例中,下一个实例名是 SSKY5,节点名是 oradb5。进行适当的选择后单击 Next。在该阶段,在下一屏幕显示之前会有一个小暂停,因为 DBCA 要确定新节点的当前状态以及当前节点上配置了什么服务。
    7、第 6 步(共 7 步):数据库服务 — 如果当前配置中配置了任何数据库服务,将显示该屏幕(否则跳过)。在我们的示例中,当前配置定义了两个服务 — CRM 和 PAYROLL。该屏幕提示跨新实例配置它们。进行适当的选择并在准备好后单击 Next。
    8、第 7 步(共 7 步):实例存储 — 在该屏幕中,DBCA 将列出实例特定的文件,例如,撤消表空间、重做日志组,等等。验证是否列出了所需的所有文件并单击 Finish。
    9、数据库配置助手:总结 — 验证该总结后,单击 OK 开始软件安装。
    10、DBCA 验证新节点 oradb5,而且由于该数据库配置为使用 ASM,将提示消息“ASM 位于该集群上,但需要扩展到以下节点:[oradb5]。您想扩展 ASM 吗?”单击 Yes 将 ASM 添加到新实例。
    11、为了在新节点上创建并启动 ASM 实例,Oracle 要求监听程序可用且已启动。DBCA 通过请求特权提示使用端口 1521 和监听程序名 LISTENER_ORADB5 配置监听程序。如果默认端口可用,单击 Yes,否则单击 No 并在 oradb5 上手动执行 NetCA 来使用不同端口创建监听程序。
    12、数据库配置助手进度屏幕 — 当实例管理完成后,将提示用户消息“您想执行另一操作吗?”单击 No 结束。
    13在该阶段,以下内容是真实的:

    a、已经在节点 oradb5 上安装了该集群件,现在它是该集群的一部分。
    b、已经在节点 oradb5 上安装了该 Oracle 软件。
    c、已经在节点 oradb5 上创建并配置了 ASM5 和新 Oracle 实例 SSKY5。

    14、验证更新是否成功。

    a、从任何参与实例使用 V$ACTIVE_INSTANCES 视图验证是否启动了集群中的所有实例。 例如:

SQL> select * from v$active_instances;


INST_NUMBER INST_NAME
----------- -----------------------------------
          1 oradb1.sumsky.net:SSKY1
          2 oradb2.sumsky.net:SSKY2
          3 oradb3.sumsky.net:SSKY3
          4 oradb4.sumsky.net:SSKY4
          5 oradb5.sumsky.net:SSKY5

    b、验证是否已经安装了所有 ASM 磁盘组,而且数据文件是否对新实例可视。

SQL> SELECT NAME,STATE,TYPE FROM V$ASM_DISKGROUP;

NAME                           STATE       TYPE
------------------------------ ----------- ------
ASMGRP1                        CONNECTED   NORMAL
ASMGRP2                        CONNECTED   NORMAL

SQL> SELECT NAME FROM V$DATAFILE;

NAME
-----------------------------------------------------------------
+ASMGRP1/sskydb/datafile/system.256.581006553
+ASMGRP1/sskydb/datafile/undotbs1.258.581006555
+ASMGRP1/sskydb/datafile/sysaux.257.581006553
+ASMGRP1/sskydb/datafile/users.259.581006555
+ASMGRP1/sskydb/datafile/example.269.581007007
+ASMGRP1/sskydb/datafile/undots2.271.581029215

    c、验证 OCR 是否知道:

    集群中的新实例:

[oracle@oradb1 oracle]$ srvctl status database -d SSKYDB
Instance SSKY1 is running on node oradb1
Instance SSKY2 is running on node oradb2
Instance SSKY3 is running on node oradb3
Instance SSKY4 is running on node oradb4
Instance SSKY5 is running on node oradb5

    数据库服务:

[oracle@oradb1 oracle]$ srvctl status service -d SSKYDB
Service CRM is running on instance(s) SSKY1
Service CRM is running on instance(s) SSKY2
Service CRM is running on instance(s) SSKY3
Service CRM is running on instance(s) SSKY4
Service CRM is running on instance(s) SSKY5
Service PAYROLL is running on instance(s) SSKY1
Service PAYROLL is running on instance(s) SSKY5

 

 

    第 7 步:执行日常管理任务

    为便于管理和导航,应在登录配置文件中定义几个不同的环境变量。例如:

[oracle@oradb5 oracle]$ more .bash_profile
# Get the aliases and functions
if [ -f ~/.bashrc ]; then
        . ~/.bashrc
fi
# User specific environment and startup programs
export ORACLE_BASE=/usr/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
export ORA_CRS_HOME=$ORACLE_BASE/product/10.2.0/crs

export PATH=.:$:$HOME/bin:$ORACLE_HOME/bin
export PATH=$:$ORA_CRS_HOME/bin
export PATH=$:/usr/bin:/bin:/usr/bin/X11:/usr/local/bin:/sbin
export ORACLE_ADMIN=$ORACLE_BASE/admin
export TNS_ADMIN=$ORACLE_HOME/network/admin

export LD_ASSUME_KERNEL=2.4.19
export LD_LIBRARY=$ORACLE_HOME/lib
export LD_LIBRARY=$:/lib:/usr/lib:/usr/local/bin
export LD_LIBRARY=$:$ORA_CRS_HOME/lib

export CLASSPATH=$ORACLE_HOME/JRE
export CLASSPATH=$:$ORACLE_HOME/jlib
export CLASSPATH=$:$ORACLE_HOME/rdbms/jlib
export CLASSPATH=$:$ORACLE_HOME/network/jlib
export THREADS_FLAG=native
export ORACLE_SID=SSKY5

    将网络地址添加到 DNS 以进行查看。为了便于连接到使用 VIP 的数据库的应用程序和客户端将别名转换为适当的 IP 地址,重要的是将 VIP 地址添加到 DNS.

    还要将新网络地址添加到 clinet tnsnames.ora 文件,添加到适当的 connect 描述符。

CRAC =
  (DESCRIPTION =
    (ADDRESS = (PROTOCOL = TCP)(HOST = oradb1-vip)(PORT = 1521))
    (ADDRESS = (PROTOCOL = TCP)(HOST = oradb2-vip)(PORT = 1521))
    (ADDRESS = (PROTOCOL = TCP)(HOST = oradb3-vip)(PORT = 1521))
    (ADDRESS = (PROTOCOL = TCP)(HOST = oradb4-vip)(PORT = 1521))
    (ADDRESS = (PROTOCOL = TCP)(HOST = oradb5-vip)(PORT = 1521))
    (LOAD_BALANCE = yes)
    (CONNECT_DATA =
      (SERVER = DEDICATED)
      (SERVICE_NAME = CRM)
    )
  )

    如果这些服务器配置为使用 FAN 功能,将新的服务器地址添加到所有数据库服务器上的 onsctl 文件中。ons.config 文件位于

[oracle@oradb4 oracle]$ more $ORACLE_HOME/opmn/conf/ons.config
localport=6101
remoteport=6201
loglevel=3
useocr=on
nodes=oradb4.sumsky.net:6101,oradb2.sumsky.net:6201,
oradb1.sumsky.net:6201,oradb3.sumsky.net:6201,oradb5.sumsky.net:6201
onsclient1.sumsky.net:6200,onsclient2.sumsky.net:6200

    结论

    恭喜,您已成功地将一个新节点添加到了四节点的现有配置。下表显示了新配置。

数据库名 节点编号 数据库版本 实例编号 操作系统内核版本 文件系统 集群管理器

SSKYDB

五个节点 — oradb1、oradb2、oradb3、oradb4 和 oradb5

10.2.0.1

五个实例 — SSKY1、SSKY2、SSKY3、SSKY4 和 SSKY5

Red Hat Advanced Server 3.0
Linux sumsky.net 2.4.21-32.ELsmp

OCFS 1.0 和 ASM

Oracle 集群件