1. Documentación en Tahiti -> Masters Book List -> Grid Infrastructure Installation Guide for Linux
2. Clonamos la plantilla que hemos guardado durante la instalación de Oracle. Copiamos el directorio G:\Virtual Machines\Template a G:\Virtual Machines\RAC1
3. Cambiamos el nombre de la máquina virtual. Abrimos el fichero G:\Virtual Machines\RAC1\OCM.vmx y cambiamos la siguiente linea:
displayName = "OCM"
por la siguiente
displayName = "RAC1"
4. Modificamos la ubicación del disco del sistema en el mismo fichero. Cambiamos la linea:
scsi0:0.fileName = "G:\Virtual Machines\OCM\OCM.vmdk"
por la siguiente
scsi0:0.fileName = "G:\Virtual Machines\RAC1\OCM.vmdk"
5. Abrimos la máquina virtual desde VMware. File -> Open -> Seleccionamos «G:\Virtual Machines\RAC1\OCM.vmx» -> Abrir
6. Validamos que la memoria de la VM RAC1 es como mínimo 2560MB.
Click «Edit virtual machine settings» ->
-> «Memory for this virtual machine» = 2560
7. Generamos una nueva MAC para la tarjeta de red existente
Click «Edit virtual machine settings» ->
-> Click «Network Adapter» ->
-> Click «Advanced» ->
->Click «Generate»
8. Añadimos una nueva tarjeta de red (Para la red privada, para todo lo demás, Mastercard (IP Pública 😉
Click «Add» ->
-> Click «Network Adapter» ->
-> Click «Next» ->
-> Seleccionamos «Bridged: Connected directly to the physical network» ->
-> Click «Finish» ->
-> Click «OK»
9. Vamos a crear 12 discos para el Grid Infrastructure. Creamos una nueva carpeta «G:\Virtual Machines\Shared».
Click «Edit virtual machine settings» ->
-> Click «Add» ->
-> Seleccionar «Hard Disk» ->
-> Seleccionar «Create a new virtual disk» ->
-> Click «Next» ->
-> Click «Independent» y «Persistent» ->
-> Click «Next» ->
-> Introducimos «Maximum disk size (GB)» = 5 ->
-> Click «Allocate all disk space now.» y «Store virtual disk a a single file» ->
-> Click «Next» ->
-> Introducimos el nombre «G:\Virtual Machines\Shared\asmdisk01.vmdk» ->
-> Click «Finish»
10. Repetimos el paso anterior creando 11 nuevos discos con la siguiente configuración. Debemos tener los siguientes discos:
# «G:\Virtual Machines\Shared\asmdisk01.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk02.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk03.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk04.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk05.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk06.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\asmdisk07.vmdk», Size 5GB
# «G:\Virtual Machines\Shared\clusterdisk01.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk02.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk03.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk04.vmdk», Size 1GB
# «G:\Virtual Machines\Shared\clusterdisk05.vmdk», Size 1GB
11. Configuramos estos discos en un dispositivo SCSI independiente al del sistema (SCSI 1)
Click «Edit virtual machine settings» ->
-> Click en el primer disco de 5GB «G:\Virtual Machines\Shared\asmdisk01.vmdk» ->
-> Click «Advanced» ->
-> En el desplegable «Virtual device node» seleccionamos «SCSI 1:0» ->
-> Click «OK»
12. De la misma forma configuramos el resto de discos. Configuración general:
# «G:\Virtual Machines\Shared\asmdisk01.vmdk» => «SCSI 1:0»
# «G:\Virtual Machines\Shared\asmdisk02.vmdk» => «SCSI 1:1»
# «G:\Virtual Machines\Shared\asmdisk03.vmdk» => «SCSI 1:2»
# «G:\Virtual Machines\Shared\asmdisk04.vmdk» => «SCSI 1:3»
# «G:\Virtual Machines\Shared\asmdisk05.vmdk» => «SCSI 1:4»
# «G:\Virtual Machines\Shared\asmdisk06.vmdk» => «SCSI 1:5»
# «G:\Virtual Machines\Shared\asmdisk07.vmdk» => «SCSI 1:6»
# «G:\Virtual Machines\Shared\clusterdisk01.vmdk» => «SCSI 1:8»
# «G:\Virtual Machines\Shared\clusterdisk02.vmdk» => «SCSI 1:9»
# «G:\Virtual Machines\Shared\clusterdisk03.vmdk» => «SCSI 1:10»
# «G:\Virtual Machines\Shared\clusterdisk04.vmdk» => «SCSI 1:11»
# «G:\Virtual Machines\Shared\clusterdisk05.vmdk» => «SCSI 1:12»
13. Configuramos VMware para que puedan compartirse los discos entre los nodos. Editamos el fichero «G:\Virtual Machines\RAC1\OCM.vmx» y añadimos las lineas:
disk.locking = "FALSE" diskLib.dataCacheMaxSize = "0" diskLib.dataCacheMaxReadAheadSize = "0" diskLib.dataCacheMinReadAheadSize = "0" diskLib.dataCachePageSize = "0" scsi1.sharedBus = "virtual"
14. En el mismo fichero tenemos que añadir las siguientes lineas:
scsi1:0.deviceType = "disk" scsi1:1.deviceType = "disk" scsi1:2.deviceType = "disk" scsi1:3.deviceType = "disk" scsi1:4.deviceType = "disk" scsi1:5.deviceType = "disk" scsi1:6.deviceType = "disk" scsi1:8.deviceType = "disk" scsi1:9.deviceType = "disk" scsi1:10.deviceType = "disk" scsi1:11.deviceType = "disk" scsi1:12.deviceType = "disk"
15. Arrancamos la máquina RAC1 y nos logamos como root para camiar las IPs. Abrimos un terminal y escribimos:
system-config-network
16. Borramos la copia antigua de la configuración del interfaz antiguo, «eth0.bak»
Click en el interfaz con nickname «eth0.bak» ->
-> Click «Deactivate» ->
-> Click «Delete»
17. Modificamos las propiedades de «eth0»
Click «eth0» ->
-> Click «Edit» ->
-> Click «Statically set IP addresses» ->
-> Address = «192.168.1.110», Subnet Mask = «255.255.255.0» y Default gateway address = «192.168.1.1» ->
-> Click «OK» ->
-> Click «Deactivate» ->
-> Click «Activate» ->
-> Click «File» ->
-> Click «Save»
18. Hacemos lo mismo con el interfaz «eth1» pero con los siguientes parámetros:
# Address = «10.10.10.110»
# Subnet Mask = «255.255.0.0»
# Default gateway address = «»
19. Configuramos un servidor DNS en la VM OCM para poder tener el SCAN Listener y otras ventajas para administrar las máquinas.
En la máquina OCM abrimos un terminal como root y creamos el siguiente archivo «/var/named/chroot/etc/named.conf» añadiendo:
options { listen-on port 53 { 127.0.0.1; 192.168.1.100; }; directory "/var/named"; dump-file "/var/named/data/cache_dump.db"; statistics-file "/var/named/data/named_stats.txt"; /* * If there is a firewall between you and nameservers you want * to talk to, you might need to uncomment the query-source * directive below. Previous versions of BIND always asked * questions using port 53, but BIND 8.1 uses an unprivileged * port by default. */ // query-source address * port 53; // My Additions // Forwarder: Anything this DNS can't resolve gets forwarded to my ISPs DNS. forwarders { 192.168.1.1; }; // End My Additions }; zone "dbajunior.com." IN { type master; file "dbajunior.com.zone"; allow-update { none; }; }; zone "1.168.192.in-addr.arpa." IN { type master; file "1.168.192.in-addr.arpa"; allow-update { none; }; }; include "/etc/rndc.key";
20. Añadimos las siguientes lineas al archivo «/var/named/chroot/var/named/dbajunior.com.zone»:
$TTL 86400 @ IN SOA localhost root.localhost ( 42 ; serial (d. adams) 3H ; refresh 15M ; retry 1W ; expiry 1D ) ; minimum IN NS localhost localhost IN A 127.0.0.1 ocm IN A 192.168.1.100 rac1 IN A 192.168.1.110 rac2 IN A 192.168.1.120 dg IN A 192.168.1.130 oem IN A 192.168.1.150 rac1-vip IN A 192.168.1.111 rac2-vip IN A 192.168.1.121 rac1-priv IN A 10.10.10.110 rac2-priv IN A 10.10.10.120 cluster-scan IN A 192.168.1.200 cluster-scan IN A 192.168.1.201 cluster-scan IN A 192.168.1.202
21. Añadimos las siguientes lineas al archivo «/var/named/chroot/var/named/1.168.192.in-addr.arpa»:
$ORIGIN 1.168.192.in-addr.arpa. $TTL 1H @ IN SOA ocm.dbajunior.com. root.ocm.dbajunior.com. ( 2 3H 1H 1W 1H ) 1.168.192.in-addr.arpa. IN NS ocm.dbajunior.com. 100 IN PTR ocm.dbajunior.com. 110 IN PTR rac1.dbajunior.com. 120 IN PTR rac2.dbajunior.com. 130 IN PTR dg.dbajunior.com. 150 IN PTR oem.dbajunior.com. 111 IN PTR rac1-vip.dbajunior.com. 121 IN PTR rac2-vip.dbajunior.com. 200 IN PTR cluster-scan.dbajunior.com. 201 IN PTR cluster-scan.dbajunior.com. 202 IN PTR cluster-scan.dbajunior.com.
22. Activamos el servicio named y configuramos que se inicia cuando arranque la máquina. En un terminal, ejecutamos como root:
service named start chkconfig named on
23. Para finalizar con el DNS, modificamos el archivo «/etc/resolv.conf» tanto en OCM como en RAC1. Debe quedar así:
search dbajunior.com nameserver 192.168.1.100
24. Cambiamos el nombre del HOSTNAME en RAC1.
Editamos el fichero «/etc/sysconfig/network» y modificamos la variable de HOSTNAME de la siguiente forma:
HOSTNAME=rac1.dbajunior.com
Además para cambiarlo de forma dinámica ejecutamos, la siguiente instrucción:
hostname rac1.dbajunior.com
25. Se modifica el fichero «/etc/hosts» tanto en OCM como en RAC1 con el siguiente cotenido:
# Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 # Oracle Database OCM 192.168.1.100 ocm.dbajunior.com ocm # Oracle OEM 192.168.1.150 oem.dbajunior.com oem # Oracle RAC 192.168.1.110 rac1.dbajunior.com rac1 192.168.1.111 rac1-vip.dbajunior.com rac1-vip 192.168.1.120 rac2.dbajunior.com rac2 192.168.1.121 rac2-vip.dbajunior.com rac2-vip 10.10.10.110 rac1-priv.dbajunior.com rac1-priv 10.10.10.120 rac2-priv.dbajunior.com rac2-priv # Oracle Data Guard 192.168.1.130 dg.dbajunior.com dg
26. Modificamos los lÌmites del usuario oracle
vi /etc/security/limits.conf
# Añadimos las siguientes lineas al final de archivo
oracle soft nproc 2047 oracle hard nproc 16384 oracle soft nofile 1024 oracle hard nofile 65536 oracle soft stack 10240
27. Modificar los par·metros del SO
vi /etc/sysctl.conf # Comentamos las siguientes lineas #kernel.shmmax = 68719476736 #kernel.shmall = 4294967296 # Añadimos las siguientes lineas # Valores recomendados fs.aio-max-nr = 1048576 fs.file-max = 6815744 # Shmall es el numero de paginas de memoria compartida que puede usar el sistema # El valor recomendado de 2097152 nos permite cubrir = 2097152 * 4096K (pagesize) = 8GB kernel.shmall = 2097152 # Valor recomendado de shmmax = (4GB * 1024^3) - 1 kernel.shmmax = 4294967295 # Shmmni es el numero de identificadores de segmentos en la memoria compartida. Valor recomendado. kernel.shmmni = 4096 # Valores tipicos de semaforos en Instalaciones de Oracle kernel.sem = 250 32000 100 128 # Valores recomendados net.ipv4.ip_local_port_range = 9000 65500 net.core.rmem_default = 262144 net.core.rmem_max = 4194304 net.core.wmem_default = 262144 net.core.wmem_max = 1048576
28. Activamos los nuevos parámetros de SO.
sysctl -p
29. Creamos el directorio base de Oracle ($ORACLE_BASE) y el del Inventario de Oracle
mkdir -p /u01/app/oracle mkdir -p /u01/app/oraInventory mkdir -p /u01/app/11.2.0/grid chown -R oracle:oinstall /u01/app/oracle chown -R oracle:oinstall /u01/app/oraInventory chown -R oracle:oinstall /u01/app/11.2.0/grid chmod -R 775 /u01/app/oracle chmod -R 775 /u01/app/oraInventory chmod -R 775 /u01/app/11.2.0/grid
30. Aprovechamos para crear un directorio para el software de Oracle
mkdir -p /u01/stage chown -R oracle:oinstall /u01/stage chmod -R 775 /u01/stage
31. Modificamos los grupos secundarios del usuario oracle. Ejecutamos como root
usermod -G dba,oper,asmadmin,asmdba,asmoper oracle
32. Descargamos el paquete cvuqdisk (Linux x86) de esta página y lo instalamos
unzip cvupack_Linux_x86.zip cd rpm rpm -e cvuqdisk CVUQDISK_GRP=oinstall; export CVUQDISK_GRP rpm -Uvh cvuqdisk-1.0.9-1.rpm
33. Montamos el DVD de Oracle Linux 5.4
Click «VM» ->
-> Click «Settings» ->
-> Click «CD/DVD (IDE)» ->
-> Click Browse ->
-> Seleccionamos la ISO «Enterprise-R5-U4-Server-i386-dvd.iso» ->
-> Click «OK» ->
-> Click «Connected» ->
-> Click «Ok»
34. Abrimos un terminal e instalamos los siguientes paquetes RPM.
Hay un conjunto de paquetes que ya deberían estar instalados si se siguieron los pasos correctamente al instalar el S.O.
mount /dev/cdrom /media cd /media/Server rpm -Uvh oracleasm-support-2.1.3-1.el5.i386.rpm rpm -Uvh oracleasm-2.6.18-164.el5-2.0.5-1.el5.i686.rpm cd umount /dev/cdrom
35. Descargamos de internet el paquete oracleasmlib-2.0.4-1.el5.i386.rpm de esta página
rpm -Uvh oracleasmlib-2.0.4-1.el5.i386.rpm
36. Configuramos los discos en ASMlib. Para ello ejecutamos como root en RAC1:
service oracleasm configure Default user to own the driver interface = "oracle" Default group to own the driver interface = "asmadmin" Start Oracle ASM library driver on boot (y/n) = "y" Scan for Oracle ASM disks on boot (y/n) = "y"
37. Formateamos los discos como root.
fdisk /dev/sdb
Tecleamos «n» ->
-> Tecleamos «p» ->
-> Tecleamos «1» ->
-> Pulsamos <Intro> 2 veces ->
-> Tecleamos «w»
Realizamos la misma operación para todos estos volúmenes:
fdisk /dev/sdc
fdisk /dev/sdd
fdisk /dev/sde
fdisk /dev/sdf
fdisk /dev/sdg
fdisk /dev/sdh
fdisk /dev/sdi
fdisk /dev/sdj
fdisk /dev/sdk
fdisk /dev/sdl
fdisk /dev/sdm
38. Creamos los discos de ASM con ASMlib
service oracleasm createdisk DATA01 /dev/sdb1 service oracleasm createdisk DATA02 /dev/sdc1 service oracleasm createdisk RECO01 /dev/sdd1 service oracleasm createdisk RECO02 /dev/sde1 service oracleasm createdisk TEST01 /dev/sdf1 service oracleasm createdisk TEST02 /dev/sdg1 service oracleasm createdisk TEST03 /dev/sdh1 service oracleasm createdisk DGRAC01 /dev/sdi1 service oracleasm createdisk DGRAC02 /dev/sdj1 service oracleasm createdisk DGRAC03 /dev/sdk1 service oracleasm createdisk DGRAC04 /dev/sdl1 service oracleasm createdisk DGRAC05 /dev/sdm1
# Listamos que tenemos todos los discos dentro de ASMlib
service oracleasm listdisks
39. Activamos el modo slewing del demonio NTP. Editamos el fichero /etc/sysconfig/ntpd como root y cambiamos la linea:
OPTIONS="-u ntp:ntp -p /var/run/ntpd.pid"
por
OPTIONS="-x -u ntp:ntp -p /var/run/ntpd.pid"
Guardamos y reiniciamos el demonio NTP:
service ntpd restart
40. Apagamos la VM RAC1 y copiamos el directorio G:\Virtual Machines\RAC1 a G:\Virtual Machines\RAC2
Abrimos el fichero G:\Virtual Machines\RAC2\OCM.vmx para cambiar las siguientes lineas:
displayName = "RAC1" scsi0:0.fileName = "G:\Virtual Machines\RAC1\OCM.vmdk"
por
displayName = "RAC2"
scsi0:0.fileName = "G:\Virtual Machines\RAC2\OCM.vmdk"
41. Generamos una nueva MAC para los dos interfaces de RAC2
Primero abrimos la VM RAC2 en VMware.
Click «File» ->
-> Click «Open…» ->
-> Seleccionamos «G:\Virtual Machines\RAC2\OCM.vmx» ->
-> Click «Abrir» ->
-> Click «Edit virtual machine settings» ->
-> Click «Network Adapter» ->
-> Click «Advanced» ->
-> Click «Generate»
Repetimos el proceso para el otro adaptador de red.
42. Arrancamos la máquina RAC2 y nos logamos como root para camiar las IPs
Abrimos un terminal y escribimos:
system-config-network
43. Borramos la copia antigua de la configuración de los interfaces antiguos, «eth0.bak» y «eth1.bak»
Click en el interfaz con nickname «eth0.bak» ->
-> Click «Deactivate» ->
-> Click «Delete» ->
-> Click en el interfaz con nickname «eth1.bak» ->
-> Click «Deactivate» ->
-> Click «Delete»
45. Modificamos las propiedades de «eth0»
Click «eth0» ->
-> Click «Edit» ->
-> Click «Statically set IP addresses» ->
-> Address = «192.168.1.120», Subnet Mask = «255.255.255.0» y Default gateway address = «192.168.1.1» ->
-> Click «OK» ->
-> Click «Deactivate» ->
-> Click «Activate» ->
-> Click «File» ->
-> Click «Save»
46. Hacemos lo mismo con el interfaz «eth1» pero con los siguientes parámetros:
Address = «10.10.10.120»
Subnet Mask = «255.255.0.0»
Default gateway address = «»
47. Para finalizar con el DNS, modificamos el archivo «/etc/resolv.conf» en RAC2. Debe quedar así:
search dbajunior.com nameserver 192.168.1.100
48. Cambiamos el nombre del HOSTNAME en RAC2.
Editamos el fichero «/etc/sysconfig/network» y modificamos la variable de HOSTNAME de la siguiente forma:
HOSTNAME=rac2.dbajunior.com
Además para cambiarlo de forma dinámica ejecutamos, la siguiente instrucción:
hostname rac2.dbajunior.com
49. Arrancamos la VM RAC1 y configuramos la equivalencia SSH
Ejecutamos las siguientes instrucciones en RAC1 como oracle:
ssh-keygen -t rsa ssh-keygen -t dsa
Ejecutamos las siguientes instrucciones en RAC2 como oracle:
ssh-keygen -t rsa ssh-keygen -t dsa
Registramos las claves públicas en el archivo de autorización en RAC1
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys ssh rac2 cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ssh rac2 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
Copias el archivo de claves autorizadas a RAC2 desde RAC1
scp -p ~/.ssh/authorized_keys rac2:~/.ssh/
Validamos la autenticidad de los hosts pulsando «yes» con cada uno de los siguientes comandos (tanto en RAC1 como en RAC2)
ssh rac1 date ssh rac1.dbajunior.com date ssh rac1-priv date ssh rac1-priv.dbajunior.com date ssh rac2 date ssh rac2.dbajunior.com date ssh rac2-priv date ssh rac2-priv.dbajunior.com date
50. Copiamos los siguientes ficheros descargados desde nuestro equipo a la máquina virtual RAC1. Podemos usar cualquier programa gratuito (WinSCP o FileZilla).
· p10404530_112030_LINUX_3of7 -> /u01/stage
51. Descomprimimos el software con el usuario oracle y borramos los archivos comprimidos
su - oracle cd /u01/stage unzip p10404530_112030_LINUX_3of7.zip rm p10404530_112030_LINUX_3of7.zip
52. Ejecutamos la herramienta Cluvfy para validar los prerrequisitos HW
/u01/stage/grid/runcluvfy.sh stage -post hwos -n rac1,rac2 -verbose
Al final de la salida tenemos que tener el siguiente mensaje:
Post-check for hardware and operating system setup was successful.
53. Ejecutamos la herramienta Cluvfy para validar los prerrequisitos del Grid Infrastructure
/u01/stage/grid/runcluvfy.sh stage -pre crsinst -n rac1,rac2 -verbose
Al final tenemos que haber validado todos los prerrequisitos, debe aperecer el siguiente mensaje:
«Pre-check for cluster services setup was successful.»
54. Nos logamos en la máquina con el usuario oracle, abrimos un terminal y ejecutamos:
/u01/stage/grid/runInstaller
55. Activamos «Install and Configure Grid Infrastructure for a Cluster» -> Click «Next»
56. Click «Advanced Installation» -> Click «Next»
57. Únicamente dejamos el idioma «English» -> Click «Next»
58. Rellenamos los siguientes datos del SCAN Listener
Cluster Name = «cluster»
SCAN Name = «cluster-scan.dbajunior.com»
SCAN Port = 1521
Desactivamos la casilla «Configure GNS» -> Click «Next»
59. Añadimos el segundo nodo
Click «Add»
Hostname = «rac2.dbajunior.com»
Virtual IP Name = «rac2-vip.dbajunior.com»
Click «Ok» -> Click «SSH Connectivity» -> Click «Test» -> Click «Next»
60. La configuración de los interfaces deberia ser correcta -> Click «Next»
61. Seleccionamos «Automatic Storage Management (ASM)» -> Click «Next»
62. Creamos un Disk Group para los ficheros OCR y Voting Disks
Disk Group Name = «DGRAC»
Seleccionamos Redundancy = «High»
Marcamos los 5 discos DGRAC01 hasta DGRAC05
Click «Next»
63. Usaremos la misma clave para SYS y ASMSNMP.
Click «Use same passwords for these accounts» ->
-> Introducimos la clave que queramos ->
-> Click «Next» ->
-> Click «Yes»
64. Click «Do not use Intelligent Platform Management Interface (IPMI) -> Click «Next»
65. Los grupos que aparecen deberían ser los correctos -> Click «Next»
66. También debería aparecernos las rutas que hemos escogido:
Oracle Base = «/u01/app/oracle»
Software Location = «/u01/app/11.2.0/grid»
Click «Next»
67. La ruta del inventario también es la correcta:
Inventory Directory = «/u01/app/oraInventory»
Click «Next»
68. Nos aparece el resumen antes de proceder a la instalación -> Click «Finish»
69. Antes de finalizar nos pide que ejecutamos los siguientes scripts como root en ambos nodos:
[root@rac1 ~]# /u01/app/oraInventory/orainstRoot.sh [root@rac2 ~]# /u01/app/oraInventory/orainstRoot.sh [root@rac1 ~]# /u01/app/11.2.0/grid/root.sh [root@rac2 ~]# /u01/app/11.2.0/grid/root.sh
70. Al finalizar la ejecución de los scripts, Click «OK»
71. Finalizamos la instalación haciendo Click en «Close» (Bien!)
72. Hacemos comprobaciones sobre la instalación. Ejecutamos como oracle:
/u01/app/11.2.0/grid/bin/cluvfy stage -post crsinst -n rac1,rac2 -verbose
73. También comprobamos el estado del CRS en ambos nodos, RAC1 y RAC2. Ejecutamos como oracle:
/u01/app/11.2.0/grid/bin/crsctl check cluster
# También podemos comprobar el estado de los recursos del CRS y donde están levantados. (Antigüo crsstat)
/u01/app/11.2.0/grid/bin/crsctl stat res -t
74. Creamos un fichero para cargar el profile del Grid. Realizamos los siguientes pasos como oracle en RAC1:
vi ~/profile_grid # Añadimos export ORACLE_BASE=/u01/app/oracle export ORACLE_HOME=/u01/app/11.2.0/grid export ORA_CRS_HOME=/u01/app/11.2.0/grid export ORACLE_SID=+ASM1 export ORA_DUMP=/u01/app/oracle/diag/asm/+asm/+ASM1/trace/ export CRS_DUMP=/u01/app/11.2.0/grid/log/rac1 export PATH=$ORACLE_HOME/bin:$PATH
# Guardamos y salimos
chmod u+x ~/profile_grid
75. Creamos el mismo fichero en RAC2, modificando estas lineas:
scp -p ~/profile_grid rac2:~/ ssh rac2 # Editamos ~/profile_grid export ORACLE_SID=+ASM2 export ORA_DUMP=/u01/app/oracle/diag/asm/+asm/+ASM2/trace/ export CRS_DUMP=/u01/app/11.2.0/grid/log/rac2
76. Creamos el listener LISTENER dentro el HOME de GI.
cd $HOME . profile_grid netca
Seleccionamos «Listener configuration» ->
Click «Next» ->
Seleccionamos «Add» ->
Click «Next» ->
Listener name = «LISTENER» ->
Click «Next» ->
Click «Next» ->
Click «Next» ->
Click «Next»