11gR2 集群管理软件(GI) 启动顺序和诊断方法简介
基本上我们可以把GI的启动过程分成3个阶段,ohasd阶段,构建集群阶段,启动资源阶段。
首先,ohasd阶段。
1. /etc/inittab文件中的脚本
h1:35:respawn:/etc/init.d/init.ohasd run
>/dev/null 2>&1 </dev/null
被调用,产生下面的进程
root 4865 1 0 Dec02 ? 00:01:01 /bin/sh /etc/init.d/init.ohasd
run
所以如果说你没有发现这个进程,那么说明
+init.ohasd 脚本可能没有被调用
+ os运行在不正确的级别
+ 一些S* ohasd脚本挂起, 例如S96ohasd
+ GI没有配置自动启动(crsctl enable crs)
之后,ohasd.bin 进程会被启动,这个时候OLR会被访问,所以,如果ohasd.bin不能正常工作,就需要查看OLR是否存在而且能够被正常访问。OLR存放在$GRID_HOME/cdata/${HOSTNAME}.olr
2. ohasd.bin进程会启动对应的agents(orarootagent,
oraagent, cssdagnet 和 cssdmonitor) 来启动集群的初始化资源。如果说,您发现这些agent进程不能启动,很多时候都是由于路径$GRID_HOME/bin 下的可执行文件存在问题,例如,文件权限设置有问题,文件corruption.
接下来,构建集群阶段。
1. Mdnsd 进程透过多播(Multicast)发现集群中的节点和所有的网卡信息。所以,一定要确定集群中的网卡支持多播。而且节点间的通信正常。
2. Gpnpd 进程启动,发布构建集群所需要的bootstrap 信息,并且在集群的所有节点之间同步gpnp profile。当然,同步是透过mdnsd实现的。所以,如果是这个进程存在问题,您需要确认节点间的通信正常,而且gpnp
profile (<gi_home>/gpnp/profiles/peer/profile.xml)存在而且可以被访问。
3. Gipcd 进程启动,这个进程负责管理集群中所有的私网(cluster
interconnect)网卡。当然,私网信息是通过gpnpd获得的,所以,如果这个进程存在问题,您需要确认gpnpd 进程正常运行。
4. Ocssd.bin 进程启动。这个进程首先通过gpnp profile中的信息发现表决盘(Voting Disk),之后通过gpnpd 进程获得集群私网信息,和其他的节点建立连接。所以,如果ocssd.bin
不能正常运行,您需要确认一下的信息
+ gpnp profile 存在而且可以被访问。
+ gpnpd 进程正常运行。
+ 表决盘所在的asm disk 或设备能够正常被访问。
+ 节点私网间的通信正常。
5. 启动其他的初始化进程:ora.ctssd, ora.asm, ora.cluster_interconnect.haip, ora.crf, ora.crsd
等。
注意:以上的过程是同时进行的。也就是说ocssd.bin, gpnpd.bin 和 gipcd.bin 同时启动,直到gpnpd.bin正常运行,ocssd.bin 和 gipcd.bin 才能获得相应的信息,在gpnpd.bin没有正常运行之前,ocssd.bin 和 gipcd.bin 中出现的无法访问gpnp profile错误是可以忽略掉的。
最后,资源启动阶段。在这个阶段,主要是通过crsd进程启动各个资源。
1. Crsd进程启动。这个进程需要访问OCR,如果您的OCR是存放在ASM上,需要确保
ASM实例正常运行,并且OCR所在的ASM磁盘组已经装载。如果OCR存放在裸设备上,那么需要确保对应的设备正常运行。
2. Crsd 启动对应的agents(orarootagent,
oraagent_<rdbms_owner>, oraagent_<gi_owner> )。如果agent不能启动,很多时候都是由于路径$GRID_HOME/bin 下的可执行文件存在问题,例如,文件权限设置有问题,文件corruption.
3. 所有的资源启动。
ora.net1.network : 网络资源,这个资源负责管理集群的公网,scanvip, vip,
listener资源都依赖于这个资源。所以,如果这个资源存在问题,vip, scanvip 和listener 都会offline,您需要检查公网是否存在问题。
ora.<scan_name>.vip:scan对应的vip资源,最多可以有3个。
ora.<node_name>.vip : 节点对应的vip 资源
ora.<listener_name>.lsnr: 监听程序资源。在这里我们要注意,从11gR2开始,listener.ora文件会自动生成,不再需要手动修改。
ora.LISTENER_SCAN<n>.lsnr: scan 监听程序。
ora.<磁盘组名>.dg: ASM 磁盘组资源。这个资源会在磁盘组被mount时创建,dismount时删除。
ora.<数据库名>.db: 数据库资源。在11gR2中实例资源已经不再存在了,新的数据库资源会管理rac 数据库的所有实例,而数据库包含哪些实例,是通过资源参数“USR_ORA_INST_NAME@SERVERNAME(<node name> )”来决定的。另外,如果您的数据库存储在ASM磁盘上,那么数据库资源会依赖于对应的磁盘组资源,这个dependency是自动添加的。但是,如果数据库被转移到了其他的磁盘组之后,原有的dependancy不会被自动删除,需要手动删除(crsctl modify res ……)。
ora.<服务名>.svc:数据库服务资源。从11gR2 开始,这个资源只有一个了,不会像10gR2一样,每个数据库服务资源包含,srv 和cs 两个资源。
ora.cvu :这个资源从11.2.0.2被引入,定期对集群执行cluvfy操作,验证集群是否存在一些配置上的问题
ora.ons : ONS资源,和之前版本的功能,基本相同。
另外,我们对诊断GI启动问题所需要查看的文件进行简单的介绍
$GRID_HOME/log/<node_name>/ocssd <==
ocssd.bin 日志
$GRID_HOME/log/<node_name>/gpnpd <== gpnpd.bin 日志
$GRID_HOME/log/<node_name>/gipcd <== gipcd.bin 日志
$GRID_HOME/log/<node_name>/agent/crsd <== crsd.bin 日志
$GRID_HOME/log/<node_name>/agent/ohasd <== ohasd.bin
日志
$GRID_HOME/log/<node_name>/mdnsd <== mdnsd.bin 日志
$GRID_HOME/log/<node_name>/client <== 用户使用GI 工具(ocrdump, crsctl, ocrcheck, gpnptool等等)对集群进行操作的日志。
$GRID_HOME/log/<node_name>/ctssd <== ctssd.bin
日志
$GRID_HOME/log/<node_name>/crsd <== crsd.bin 日志
$GRID_HOME/log/<node_name>/cvu <== cluvfy 日志输出。
$GRID_HOME/bin/diagcollection.sh <== 通过这个脚本获得更全面的诊断日志。
最后,集群的套接字文件(/var/tmp/.oracle
或 /tmp/.oracle),由于集群中很多进程之间的通信都是通过ipc实现的,所以,这些套接字文件一定要存在而且权限正确。
以上,我们对GI启动的顺序和基本的诊断方法进行了简单的介绍,希望能够为大家在诊断GI启动问题时能够提供一些帮助。
如果您希望对这篇文章进行进一步的讨论,请在以下的链接回复。