Install Oracle Grid Infrastructure

1. Documentación en Tahiti -> Masters Book List -> Grid Infrastructure Installation Guide for Linux

2. Clonamos la plantilla que hemos guardado durante la instalación de Oracle. Copiamos el directorio G:\Virtual Machines\Template a G:\Virtual Machines\RAC1

3. Cambiamos el nombre de la máquina virtual. Abrimos el fichero G:\Virtual Machines\RAC1\OCM.vmx y cambiamos la siguiente linea:

displayName = "OCM"

por la siguiente

displayName = "RAC1"

4. Modificamos la ubicación del disco del sistema en el mismo fichero. Cambiamos la linea:

scsi0:0.fileName = "G:\Virtual Machines\OCM\OCM.vmdk"

por la siguiente

scsi0:0.fileName = "G:\Virtual Machines\RAC1\OCM.vmdk"

5. Abrimos la máquina virtual desde VMware. File -> Open -> Seleccionamos «G:\Virtual Machines\RAC1\OCM.vmx» -> Abrir

6. Validamos que la memoria de la VM RAC1 es como mínimo 2560MB.

Click «Edit virtual machine settings» ->
-> «Memory for this virtual machine» = 2560

7. Generamos una nueva MAC para la tarjeta de red existente

Click «Edit virtual machine settings» ->
-> Click «Network Adapter» ->
-> Click «Advanced» ->
->Click «Generate»

8. Añadimos una nueva tarjeta de red (Para la red privada, para todo lo demás, Mastercard (IP Pública 😉

Click «Add» ->
-> Click «Network Adapter» ->
-> Click «Next» ->
-> Seleccionamos «Bridged: Connected directly to the physical network» ->
-> Click «Finish» ->
-> Click «OK»

9. Vamos a crear 12 discos para el Grid Infrastructure. Creamos una nueva carpeta «G:\Virtual Machines\Shared».

Click «Edit virtual machine settings» ->
-> Click «Add» ->
-> Seleccionar «Hard Disk» ->
-> Seleccionar «Create a new virtual disk» ->
-> Click «Next» ->
-> Click «Independent» y «Persistent» ->
-> Click «Next» ->
-> Introducimos «Maximum disk size (GB)» = 5 ->
-> Click «Allocate all disk space now.» y «Store virtual disk a a single file» ->
-> Click «Next» ->
-> Introducimos el nombre «G:\Virtual Machines\Shared\asmdisk01.vmdk» ->
-> Click «Finish»

10. Repetimos el paso anterior creando 11 nuevos discos con la siguiente configuración. Debemos tener los siguientes discos:

# «G:\Virtual Machines\Shared\asmdisk01.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk02.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk03.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk04.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk05.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk06.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk07.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\clusterdisk01.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk02.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk03.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk04.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk05.vmdk», Size 1GB

11. Configuramos estos discos en un dispositivo SCSI independiente al del sistema (SCSI 1)

Click «Edit virtual machine settings» ->
-> Click en el primer disco de 5GB «G:\Virtual Machines\Shared\asmdisk01.vmdk» ->
-> Click «Advanced» ->
-> En el desplegable «Virtual device node» seleccionamos «SCSI 1:0» ->
-> Click «OK»

12. De la misma forma configuramos el resto de discos. Configuración general:

# «G:\Virtual Machines\Shared\asmdisk01.vmdk» => «SCSI 1:0»
# «G:\Virtual Machines\Shared\asmdisk02.vmdk» => «SCSI 1:1»
# «G:\Virtual Machines\Shared\asmdisk03.vmdk» => «SCSI 1:2»
# «G:\Virtual Machines\Shared\asmdisk04.vmdk» => «SCSI 1:3»
# «G:\Virtual Machines\Shared\asmdisk05.vmdk» => «SCSI 1:4»
# «G:\Virtual Machines\Shared\asmdisk06.vmdk» => «SCSI 1:5»
# «G:\Virtual Machines\Shared\asmdisk07.vmdk» => «SCSI 1:6»
# «G:\Virtual Machines\Shared\clusterdisk01.vmdk» => «SCSI 1:8»
# «G:\Virtual Machines\Shared\clusterdisk02.vmdk» => «SCSI 1:9»
# «G:\Virtual Machines\Shared\clusterdisk03.vmdk» => «SCSI 1:10»
# «G:\Virtual Machines\Shared\clusterdisk04.vmdk» => «SCSI 1:11»
# «G:\Virtual Machines\Shared\clusterdisk05.vmdk» => «SCSI 1:12»

13. Configuramos VMware para que puedan compartirse los discos entre los nodos. Editamos el fichero «G:\Virtual Machines\RAC1\OCM.vmx» y añadimos las lineas:

disk.locking = "FALSE"
diskLib.dataCacheMaxSize = "0"
diskLib.dataCacheMaxReadAheadSize = "0"
diskLib.dataCacheMinReadAheadSize = "0"
diskLib.dataCachePageSize = "0"
scsi1.sharedBus = "virtual"

14. En el mismo fichero tenemos que añadir las siguientes lineas:

scsi1:0.deviceType = "disk"
scsi1:1.deviceType = "disk"
scsi1:2.deviceType = "disk"
scsi1:3.deviceType = "disk"
scsi1:4.deviceType = "disk"
scsi1:5.deviceType = "disk"
scsi1:6.deviceType = "disk"
scsi1:8.deviceType = "disk"
scsi1:9.deviceType = "disk"
scsi1:10.deviceType = "disk"
scsi1:11.deviceType = "disk"
scsi1:12.deviceType = "disk"

15. Arrancamos la máquina RAC1 y nos logamos como root para camiar las IPs. Abrimos un terminal y escribimos:

system-config-network

16. Borramos la copia antigua de la configuración del interfaz antiguo, «eth0.bak»

Click en el interfaz con nickname «eth0.bak» ->
-> Click «Deactivate» ->
-> Click «Delete»

17. Modificamos las propiedades de «eth0»

Click «eth0» ->
-> Click «Edit» ->
-> Click «Statically set IP addresses» ->
-> Address = «192.168.1.110», Subnet Mask = «255.255.255.0» y Default gateway address = «192.168.1.1» ->
-> Click «OK» ->
-> Click «Deactivate» ->
-> Click «Activate» ->
-> Click «File» ->
-> Click «Save»

18. Hacemos lo mismo con el interfaz «eth1» pero con los siguientes parámetros:

# Address = «10.10.10.110»
# Subnet Mask = «255.255.0.0»
# Default gateway address = «»

19. Configuramos un servidor DNS en la VM OCM para poder tener el SCAN Listener y otras ventajas para administrar las máquinas.
En la máquina OCM abrimos un terminal como root y creamos el siguiente archivo «/var/named/chroot/etc/named.conf» añadiendo:

options {
        listen-on port 53 { 127.0.0.1; 192.168.1.100; };
        directory "/var/named";
        dump-file "/var/named/data/cache_dump.db";
        statistics-file "/var/named/data/named_stats.txt";
        /*
         * If there is a firewall between you and nameservers you want
         * to talk to, you might need to uncomment the query-source
         * directive below. Previous versions of BIND always asked
         * questions using port 53, but BIND 8.1 uses an unprivileged
         * port by default.
         */
         // query-source address * port 53;

        // My Additions
        // Forwarder: Anything this DNS can't resolve gets forwarded to my ISPs DNS.
        forwarders { 192.168.1.1; };
        // End My Additions
};

zone "dbajunior.com." IN {
        type master;
        file "dbajunior.com.zone";
        allow-update { none; };
};

zone "1.168.192.in-addr.arpa." IN {
        type master;
        file "1.168.192.in-addr.arpa";
        allow-update { none; };
};

include "/etc/rndc.key";

20. Añadimos las siguientes lineas al archivo «/var/named/chroot/var/named/dbajunior.com.zone»:

$TTL    86400
@               IN SOA  localhost root.localhost (
                                        42              ; serial (d. adams)
                                        3H              ; refresh
                                        15M             ; retry
                                        1W              ; expiry
                                        1D )            ; minimum
                IN NS localhost
localhost       IN A 127.0.0.1
ocm             IN A 192.168.1.100
rac1            IN A 192.168.1.110
rac2            IN A 192.168.1.120
dg              IN A 192.168.1.130
oem             IN A 192.168.1.150
rac1-vip        IN A 192.168.1.111
rac2-vip        IN A 192.168.1.121
rac1-priv       IN A 10.10.10.110
rac2-priv       IN A 10.10.10.120
cluster-scan    IN A 192.168.1.200
cluster-scan    IN A 192.168.1.201
cluster-scan    IN A 192.168.1.202

21. Añadimos las siguientes lineas al archivo «/var/named/chroot/var/named/1.168.192.in-addr.arpa»:

$ORIGIN 1.168.192.in-addr.arpa.
$TTL 1H
@       IN      SOA     ocm.dbajunior.com.     root.ocm.dbajunior.com. (      2
                                                3H
                                                1H
                                                1W
                                                1H )
1.168.192.in-addr.arpa.         IN NS      ocm.dbajunior.com.

100     IN PTR  ocm.dbajunior.com.
110     IN PTR  rac1.dbajunior.com.
120     IN PTR  rac2.dbajunior.com.
130     IN PTR  dg.dbajunior.com.
150     IN PTR  oem.dbajunior.com.
111     IN PTR  rac1-vip.dbajunior.com.
121     IN PTR  rac2-vip.dbajunior.com.
200     IN PTR  cluster-scan.dbajunior.com.
201     IN PTR  cluster-scan.dbajunior.com.
202     IN PTR  cluster-scan.dbajunior.com.

22. Activamos el servicio named y configuramos que se inicia cuando arranque la máquina. En un terminal, ejecutamos como root:

service named start
chkconfig named on

23. Para finalizar con el DNS, modificamos el archivo «/etc/resolv.conf» tanto en OCM como en RAC1. Debe quedar así:

search dbajunior.com
nameserver 192.168.1.100

24. Cambiamos el nombre del HOSTNAME en RAC1.
Editamos el fichero «/etc/sysconfig/network» y modificamos la variable de HOSTNAME de la siguiente forma:

HOSTNAME=rac1.dbajunior.com

Además para cambiarlo de forma dinámica ejecutamos, la siguiente instrucción:

hostname rac1.dbajunior.com

25. Se modifica el fichero «/etc/hosts» tanto en OCM como en RAC1 con el siguiente cotenido:

# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1       localhost.localdomain localhost
::1             localhost6.localdomain6 localhost6
# Oracle Database OCM
192.168.1.100   ocm.dbajunior.com ocm
# Oracle OEM
192.168.1.150   oem.dbajunior.com oem
# Oracle RAC
192.168.1.110   rac1.dbajunior.com rac1
192.168.1.111   rac1-vip.dbajunior.com rac1-vip
192.168.1.120   rac2.dbajunior.com rac2
192.168.1.121   rac2-vip.dbajunior.com rac2-vip
10.10.10.110    rac1-priv.dbajunior.com rac1-priv
10.10.10.120    rac2-priv.dbajunior.com rac2-priv
# Oracle Data Guard
192.168.1.130   dg.dbajunior.com dg

26. Modificamos los lÌmites del usuario oracle

vi /etc/security/limits.conf

# Añadimos las siguientes lineas al final de archivo

oracle              soft    nproc   2047
oracle              hard    nproc   16384
oracle              soft    nofile  1024
oracle              hard    nofile  65536
oracle              soft    stack   10240

27. Modificar los par·metros del SO

vi /etc/sysctl.conf
# Comentamos las siguientes lineas
#kernel.shmmax = 68719476736
#kernel.shmall = 4294967296
# Añadimos las siguientes lineas
# Valores recomendados
fs.aio-max-nr = 1048576
fs.file-max = 6815744
# Shmall es el numero de paginas de memoria compartida que puede usar el sistema
# El valor recomendado de 2097152 nos permite cubrir = 2097152 * 4096K (pagesize) = 8GB
kernel.shmall = 2097152
# Valor recomendado de shmmax = (4GB * 1024^3) - 1
kernel.shmmax = 4294967295
# Shmmni es el numero de identificadores de segmentos en la memoria compartida. Valor recomendado.
kernel.shmmni = 4096
# Valores tipicos de semaforos en Instalaciones de Oracle
kernel.sem = 250 32000 100 128
# Valores recomendados
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048576

28. Activamos los nuevos parámetros de SO.

sysctl -p

29. Creamos el directorio base de Oracle ($ORACLE_BASE) y el del Inventario de Oracle

mkdir -p /u01/app/oracle
mkdir -p /u01/app/oraInventory
mkdir -p /u01/app/11.2.0/grid
chown -R oracle:oinstall /u01/app/oracle
chown -R oracle:oinstall /u01/app/oraInventory
chown -R oracle:oinstall /u01/app/11.2.0/grid
chmod -R 775 /u01/app/oracle
chmod -R 775 /u01/app/oraInventory
chmod -R 775 /u01/app/11.2.0/grid

30. Aprovechamos para crear un directorio para el software de Oracle

mkdir -p /u01/stage
chown -R oracle:oinstall /u01/stage
chmod -R 775 /u01/stage

31. Modificamos los grupos secundarios del usuario oracle. Ejecutamos como root

usermod -G dba,oper,asmadmin,asmdba,asmoper oracle

32. Descargamos el paquete cvuqdisk (Linux x86) de esta página y lo instalamos

unzip cvupack_Linux_x86.zip
cd rpm
rpm -e cvuqdisk
CVUQDISK_GRP=oinstall; export CVUQDISK_GRP
rpm -Uvh cvuqdisk-1.0.9-1.rpm

33. Montamos el DVD de Oracle Linux 5.4

Click «VM» ->
-> Click «Settings» ->
-> Click «CD/DVD (IDE)» ->
-> Click Browse ->
-> Seleccionamos la ISO «Enterprise-R5-U4-Server-i386-dvd.iso» ->
-> Click «OK» ->
-> Click «Connected» ->
-> Click «Ok»

34. Abrimos un terminal e instalamos los siguientes paquetes RPM.
Hay un conjunto de paquetes que ya deberían estar instalados si se siguieron los pasos correctamente al instalar el S.O.

mount /dev/cdrom /media
cd /media/Server
rpm -Uvh oracleasm-support-2.1.3-1.el5.i386.rpm
rpm -Uvh oracleasm-2.6.18-164.el5-2.0.5-1.el5.i686.rpm
cd
umount /dev/cdrom

35. Descargamos de internet el paquete oracleasmlib-2.0.4-1.el5.i386.rpm de esta página

rpm -Uvh oracleasmlib-2.0.4-1.el5.i386.rpm

36. Configuramos los discos en ASMlib. Para ello ejecutamos como root en RAC1:

service oracleasm configure
Default user to own the driver interface = "oracle"
Default group to own the driver interface = "asmadmin"
Start Oracle ASM library driver on boot (y/n) = "y"
Scan for Oracle ASM disks on boot (y/n) = "y"

37. Formateamos los discos como root.

fdisk /dev/sdb

Tecleamos «n» ->
-> Tecleamos «p» ->
-> Tecleamos «1» ->
-> Pulsamos <Intro> 2 veces ->
-> Tecleamos «w»

Realizamos la misma operación para todos estos volúmenes:

fdisk /dev/sdc
fdisk /dev/sdd
fdisk /dev/sde
fdisk /dev/sdf
fdisk /dev/sdg
fdisk /dev/sdh
fdisk /dev/sdi
fdisk /dev/sdj
fdisk /dev/sdk
fdisk /dev/sdl
fdisk /dev/sdm

38. Creamos los discos de ASM con ASMlib

service oracleasm createdisk DATA01 /dev/sdb1
service oracleasm createdisk DATA02 /dev/sdc1
service oracleasm createdisk RECO01 /dev/sdd1
service oracleasm createdisk RECO02 /dev/sde1
service oracleasm createdisk TEST01 /dev/sdf1
service oracleasm createdisk TEST02 /dev/sdg1
service oracleasm createdisk TEST03 /dev/sdh1
service oracleasm createdisk DGRAC01 /dev/sdi1
service oracleasm createdisk DGRAC02 /dev/sdj1
service oracleasm createdisk DGRAC03 /dev/sdk1
service oracleasm createdisk DGRAC04 /dev/sdl1
service oracleasm createdisk DGRAC05 /dev/sdm1

# Listamos que tenemos todos los discos dentro de ASMlib

service oracleasm listdisks

39. Activamos el modo slewing del demonio NTP. Editamos el fichero /etc/sysconfig/ntpd como root y cambiamos la linea:

OPTIONS="-u ntp:ntp -p /var/run/ntpd.pid"

por

OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid"

Guardamos y reiniciamos el demonio NTP:

service ntpd restart

40. Apagamos la VM RAC1 y copiamos el directorio G:\Virtual Machines\RAC1 a G:\Virtual Machines\RAC2
Abrimos el fichero G:\Virtual Machines\RAC2\OCM.vmx para cambiar las siguientes lineas:

displayName = "RAC1"
scsi0:0.fileName = "G:\Virtual Machines\RAC1\OCM.vmdk"

por

displayName = "RAC2"

 

scsi0:0.fileName = "G:\Virtual Machines\RAC2\OCM.vmdk"

41. Generamos una nueva MAC para los dos interfaces de RAC2
Primero abrimos la VM RAC2 en VMware.

Click «File» ->
-> Click «Open…» ->
-> Seleccionamos «G:\Virtual Machines\RAC2\OCM.vmx» ->
-> Click «Abrir» ->
-> Click «Edit virtual machine settings» ->
-> Click «Network Adapter» ->
-> Click «Advanced» ->
-> Click «Generate»

Repetimos el proceso para el otro adaptador de red.

42. Arrancamos la máquina RAC2 y nos logamos como root para camiar las IPs
Abrimos un terminal y escribimos:

system-config-network

43. Borramos la copia antigua de la configuración de los interfaces antiguos, «eth0.bak» y «eth1.bak»

Click en el interfaz con nickname «eth0.bak» ->
-> Click «Deactivate» ->
-> Click «Delete» ->
-> Click en el interfaz con nickname «eth1.bak» ->
-> Click «Deactivate» ->
-> Click «Delete»

45. Modificamos las propiedades de «eth0»

Click «eth0» ->
-> Click «Edit» ->
-> Click «Statically set IP addresses» ->
-> Address = «192.168.1.120», Subnet Mask = «255.255.255.0» y Default gateway address = «192.168.1.1» ->
-> Click «OK» ->
-> Click «Deactivate» ->
-> Click «Activate» ->
-> Click «File» ->
-> Click «Save»

46. Hacemos lo mismo con el interfaz «eth1» pero con los siguientes parámetros:
Address = «10.10.10.120»
Subnet Mask = «255.255.0.0»
Default gateway address = «»

47. Para finalizar con el DNS, modificamos el archivo «/etc/resolv.conf» en RAC2. Debe quedar así:

search dbajunior.com
nameserver 192.168.1.100

48. Cambiamos el nombre del HOSTNAME en RAC2.
Editamos el fichero «/etc/sysconfig/network» y modificamos la variable de HOSTNAME de la siguiente forma:

HOSTNAME=rac2.dbajunior.com

Además para cambiarlo de forma dinámica ejecutamos, la siguiente instrucción:

hostname rac2.dbajunior.com

49. Arrancamos la VM RAC1 y configuramos la equivalencia SSH
Ejecutamos las siguientes instrucciones en RAC1 como oracle:

ssh-keygen -t rsa
ssh-keygen -t dsa

Ejecutamos las siguientes instrucciones en RAC2 como oracle:

ssh-keygen -t rsa
ssh-keygen -t dsa

Registramos las claves públicas en el archivo de autorización en RAC1

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh rac2 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh rac2 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

Copias el archivo de claves autorizadas a RAC2 desde RAC1

scp -p ~/.ssh/authorized_keys rac2:~/.ssh/

Validamos la autenticidad de los hosts pulsando «yes» con cada uno de los siguientes comandos (tanto en RAC1 como en RAC2)

ssh rac1 date
ssh rac1.dbajunior.com date
ssh rac1-priv date
ssh rac1-priv.dbajunior.com date
ssh rac2 date
ssh rac2.dbajunior.com date
ssh rac2-priv date
ssh rac2-priv.dbajunior.com date

50. Copiamos los siguientes ficheros descargados desde nuestro equipo a la máquina virtual RAC1. Podemos usar cualquier programa gratuito (WinSCP o FileZilla).

· p10404530_112030_LINUX_3of7 -> /u01/stage

51. Descomprimimos el software con el usuario oracle y borramos los archivos comprimidos

su - oracle
cd /u01/stage
unzip p10404530_112030_LINUX_3of7.zip
rm p10404530_112030_LINUX_3of7.zip

52. Ejecutamos la herramienta Cluvfy para validar los prerrequisitos HW

/u01/stage/grid/runcluvfy.sh stage -post hwos -n rac1,rac2 -verbose

Al final de la salida tenemos que tener el siguiente mensaje:
Post-check for hardware and operating system setup was successful.

53. Ejecutamos la herramienta Cluvfy para validar los prerrequisitos del Grid Infrastructure

/u01/stage/grid/runcluvfy.sh stage -pre crsinst -n rac1,rac2 -verbose

Al final tenemos que haber validado todos los prerrequisitos, debe aperecer el siguiente mensaje:
«Pre-check for cluster services setup was successful.»

54. Nos logamos en la máquina con el usuario oracle, abrimos un terminal y ejecutamos:

/u01/stage/grid/runInstaller

55. Activamos «Install and Configure Grid Infrastructure for a Cluster» -> Click «Next»

56. Click «Advanced Installation» -> Click «Next»

57. Únicamente dejamos el idioma «English» -> Click «Next»

58. Rellenamos los siguientes datos del SCAN Listener

Cluster Name = «cluster»
SCAN Name = «cluster-scan.dbajunior.com»
SCAN Port = 1521
Desactivamos la casilla «Configure GNS» -> Click «Next»

59. Añadimos el segundo nodo

Click «Add»
Hostname = «rac2.dbajunior.com»
Virtual IP Name = «rac2-vip.dbajunior.com»
Click «Ok» -> Click «SSH Connectivity» -> Click «Test» -> Click «Next»

60. La configuración de los interfaces deberia ser correcta -> Click «Next»

61. Seleccionamos «Automatic Storage Management (ASM)» -> Click «Next»

62. Creamos un Disk Group para los ficheros OCR y Voting Disks

Disk Group Name = «DGRAC»
Seleccionamos Redundancy = «High»
Marcamos los 5 discos DGRAC01 hasta DGRAC05
Click «Next»

63. Usaremos la misma clave para SYS y ASMSNMP.

Click «Use same passwords for these accounts» ->
-> Introducimos la clave que queramos ->
-> Click «Next» ->
-> Click «Yes»

64. Click «Do not use Intelligent Platform Management Interface (IPMI) -> Click «Next»

65. Los grupos que aparecen deberían ser los correctos -> Click «Next»

66. También debería aparecernos las rutas que hemos escogido:

Oracle Base = «/u01/app/oracle»
Software Location = «/u01/app/11.2.0/grid»
Click «Next»

67. La ruta del inventario también es la correcta:

Inventory Directory = «/u01/app/oraInventory»
Click «Next»

68. Nos aparece el resumen antes de proceder a la instalación -> Click «Finish»

69. Antes de finalizar nos pide que ejecutamos los siguientes scripts como root en ambos nodos:

[root@rac1 ~]# /u01/app/oraInventory/orainstRoot.sh
[root@rac2 ~]# /u01/app/oraInventory/orainstRoot.sh
[root@rac1 ~]# /u01/app/11.2.0/grid/root.sh
[root@rac2 ~]# /u01/app/11.2.0/grid/root.sh

70. Al finalizar la ejecución de los scripts, Click «OK»

71. Finalizamos la instalación haciendo Click en «Close» (Bien!)

72. Hacemos comprobaciones sobre la instalación. Ejecutamos como oracle:

/u01/app/11.2.0/grid/bin/cluvfy stage -post crsinst -n rac1,rac2 -verbose

73. También comprobamos el estado del CRS en ambos nodos, RAC1 y RAC2. Ejecutamos como oracle:

/u01/app/11.2.0/grid/bin/crsctl check cluster

# También podemos comprobar el estado de los recursos del CRS y donde están levantados. (Antigüo crsstat)

/u01/app/11.2.0/grid/bin/crsctl stat res -t

74. Creamos un fichero para cargar el profile del Grid. Realizamos los siguientes pasos como oracle en RAC1:

vi ~/profile_grid
# Añadimos
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=/u01/app/11.2.0/grid
export ORA_CRS_HOME=/u01/app/11.2.0/grid
export ORACLE_SID=+ASM1
export ORA_DUMP=/u01/app/oracle/diag/asm/+asm/+ASM1/trace/
export CRS_DUMP=/u01/app/11.2.0/grid/log/rac1
export PATH=$ORACLE_HOME/bin:$PATH

# Guardamos y salimos

chmod u+x ~/profile_grid

75. Creamos el mismo fichero en RAC2, modificando estas lineas:

scp -p ~/profile_grid rac2:~/
ssh rac2
# Editamos ~/profile_grid
export ORACLE_SID=+ASM2
export ORA_DUMP=/u01/app/oracle/diag/asm/+asm/+ASM2/trace/
export CRS_DUMP=/u01/app/11.2.0/grid/log/rac2

76. Creamos el listener LISTENER dentro el HOME de GI.

cd $HOME
. profile_grid
netca

Seleccionamos «Listener configuration» ->
Click «Next» ->
Seleccionamos «Add» ->
Click «Next» ->
Listener name = «LISTENER» ->
Click «Next» ->
Click «Next» ->
Click «Next» ->
Click «Next»