Home
clúster - Oracle Documentation
Contents
1. Conmuta Cluster secundario La Tabla A 2 resume el hardware y el software necesarios para la configuraci n de ejemplo El sistema operativo Oracle Solaris el software Oracle Solaris Cluster y el administrador de vol menes se deben instalar en los nodos del cl ster antes de instalar los parches y el software Sun StorageTek Availability Suite TABLAA 2 Hardware y software necesarios Hardware o software Requisito Hardware de nodos El software Sun StorageTek Availability Suite es compatible con todos los servidores que utilicen el sistema operativo Oracle Solaris Si desea informaci n sobre el hardware que se debe usar consulte Oracle Solaris Cluster 3 3 Hardware Administration Manual Espacio en el disco Aproximadamente 15 MB 386 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite TABLAA 2 Hardware y software necesarios Continuaci n Hardware o software Requisito Sistema operativo Oracle Solaris Las versiones del sistema operativo Oracle Solaris compatibles con Oracle Solaris Cluster Todos los nodos deben utilizar la misma versi n del sistema operativo Oracle Solaris Para obtener m s informaci n sobre la instalaci n consulte Oracle Solaris Cluster Software Installation Guide Software Oracle Solaris Cluster Software Oracle Solaris Clu
2. Determinaci n del n mero de cintas necesarias para una copia de seguridad completa en la p gina 338 Copias de seguridad del sistema de archivos root en la p gina 339 Copias de seguridad en l nea para duplicaciones Solaris Volume Manager en la p gina 342 Copias de seguridad en l nea para vol menes Veritas Volume Manager en la p gina 345 Copias de seguridad de la configuraci n del cl ster en la p gina 349 Consulte la documentaci n del disco de almacenamiento 337 Copia de seguridad de un cl ster 338 v Ejemplo 12 1 B squeda de los nombres de sistema de archivos para hacer copias de seguridad Siga este procedimiento para determinar los nombres de los sistemas de archivos de los que desea realizar una copia de seguridad Visualice el contenido del archivo etc vfstab Para ejecutar este comando no se debe ser superusuario ni asumir una funci n equivalente more etc vfstab En la columna de puntos de montaje busque el nombre del sistema de archivos del que efect a una copia de seguridad Use este nombre cuando realice la copia de seguridad del sistema de archivos more etc vfstab B squeda de nombres de sistemas de archivos para hacer copias de seguridad El ejemplo siguiente muestra los nombres de los sistemas de archivos disponibles enumerados en el archivo etc vfstab more etc vfstab device device mount FS fsck mount mount to mount to
3. 30 61114 10 20064 0 0 VGO1 pair3 L CL1 A 0 31 61114 0 VGO1 pair3 R CL1 C 11 20064 S VOL P VOL S VOL P VOL EJEMPLO 5 6 Salida del comando pairdisplay en el nodo 3 pairdisplay g VGQ1 Group PairVol L R Port TID LU Seq _LDEV P S Status Fence CL1 C 0 9 20064 VGQ1 pairl L VGO1 pairl R CL1 A 0 29 61114 vG01 pair2 L CL1 C 0 10 20064 VGO1 pair2 R CL1 A 0 30 61114 VG01 pair3 L CL1 C 0 11 20064 VGO1 pair3 R CL1 A 0 31 61114 P VOL S VOL P VOL S VOL P VOL S VOL Continuaci n PAIR NEVER PAIR NEVER 61114 PAIR NEVER PAIR NEVER 61114 PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER Seq P LDEV M 61114 59 30 31 29 Para ver los discos que se est n usando emplee la opci n fd del comando pairdisplay como se muestra en los ejemplos siguientes EJEMPLO 5 7 Salida del comando pairdisplay en el nodo 1 con los discos usados pairdisplay fd g VGO1 Group PairVol L R Device File VGO1 VG01 VGO1 VGO1 VG01 VG01 pairl L pairl R pair2 L pair2 R pair3 L pair3 R C6t500060E8000000000000EEBAQ000001Dd0s2 c5t50060E800000000000004E600000003Ad0s2 C6t500060E8000000000000EEBAQ000001Ed0s2 c5t50060E800000000000004E600000003Bd0s2 c6t500060E8000000000000EEBA0000001Fd0s2 c5t50060E800000000000004E600000003Cd0s2 Seq LDEV P S Status Fence Seq P LDEV M S V
4. Agregue un recurso SUNW HAStoragePlus al grupo de recursos de replicaciones nodeA clresource create g devgrp stor rg t SUNW HAStoragePlus p GlobalDevicePaths devgrp Y p AffinityOn True Y devgrp stor g Especifica el grupo de recursos en el que se agrega el recurso p GlobalDevicePaths Especifica la propiedad de la extensi n en que se basa el software Sun StorageTek Availability Suite p AffinityOn True Especifica que el recurso SUNW HAStoragePlus debe realizar una conmutaci n de afinidad para los dispositivos globales y los sistemas de archivos definidos en x GlobalDevicePaths Por ese motivo si el grupo de recursos de replicaciones migra tras error o se conmuta el grupo de dispositivos asociados tambi n se conmuta Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes Vv Antes de empezar Para obtener mas informacion sobre estas propiedades de extension consulte la pagina de comando man SUNW HAStoragePlus 5 Agregue un recurso de nombre de host l gico al grupo de recursos de replicaciones nodeA clreslogicalhostname create g devgrp stor rg lhost reprg prim El nombre de host l gico para el grupo de recursos de replicaciones en el cl ster primario es lhost reprg prim Habilite los recursos administre el grupo de recursos y p ngalo e
5. En este cap tulo se ofrece informaci n sobre las tareas de cierre y arranque de un cl ster global un cl ster de zona y determinados nodos Para obtener informaci n sobre c mo iniciar una zona no global consulte el Cap tulo 18 Planificaci n y configuraci n de zonas no globales tareas de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris Descripci n general sobre el cierre y el arranque de un cl ster en la p gina 63 Cierre y arranque de un solo nodo de un cl ster en la p gina 73 Reparaci n de un sistema de archivos var que haya alcanzado el l mite de su capacidad en la p gina 87 Para consultar una descripci n pormenorizada de los procedimientos tratados en este cap tulo consulte Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 y la Tabla 3 2 Descripci n general sobre el cierre y el arranque de un cl ster El comando de Oracle Solaris Cluster cluster 1CL shutdown detiene los servicios del cl ster global de forma correcta y controlada para cerrar sin sobresaltos un cl ster global por completo Puede utilizar el comando cluster shutdown al desplazar la ubicaci n de un cl ster global o para cerrar el cl ster global si un error de aplicaci n est da ando los datos El comando clzonecluster halt detiene un cl ster de zona que se ejecuta en un determinado nodo o en un cl ster de z
6. Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Compruebe que el daemon horcmd se ejecute en todos los nodos El comando siguiente inicia el daemon si no todav a no est ejecut ndose Si el daemon ya se est ejecutando el sistema muestra un mensaje usr bin horcmstart sh Determine el nodo que contiene la r plica secundaria para ello ejecute el comando pairdisplay pairdisplay g group name Group PairVol L R Port TID LU Seq _LDEV P S Status Fence Seq P LDEV M group name pairl L CL1 C 0 9 54321 58 P VOL PAIR NEVER 12345 29 group name pairl R CL1 A 0 29 12345 29 S VOL PAIR NEVER 58 El nodo con el dispositivo local L en estado S VOL contiene la r plica secundaria Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento En el nodo con la r plica secundaria determinado por el paso anterior configure los dispositivos de DID para usarlos con la replicaci n basada en almacenamiento Este comando combina las dos instancias de DID de los pares de r pli
7. Se muestra el men Cambiar las propiedades esenciales Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 163 cl ster Administraci n de grupos de dispositivos 164 Ejemplo 5 31 Para modificar una propiedad de un grupo de dispositivos escriba el n mero correspondiente a la opci n de cambiar las propiedades de preferencia o de conmutaci n de procesos Siga las instrucciones para definir las opciones de preferenced y failback de un grupo de dispositivos Compruebe que se hayan modificado los atributos del grupo de dispositivos Busque la informaci n del grupo de dispositivos mostrada por el comando siguiente cldevicegroup show v devicegroup Modificaci n de las propiedades de grupos de dispositivos En el ejemplo siguiente se muestra el comando cldevicegroup generado por clsetup cuando define los valores de los atributos para un grupo de dispositivos dg schost 1 cldevicegroup set p preferenced true p failback true p numsecondaries 1 p nodelist phys schost 1 phys schost 2 dg schost 1 cldevicegroup show dg schost 1 Device Groups Device Group Name dg schost 1 Type SVM failback yes Node List phys schost 1 phys schost 2 preferenced yes numsecondaries 1 diskset names dg schost 1 Establecimiento del numero de secundarios para un grupo de dispositivos La propiedad numsecondaries especifica el numero de nodos dentro de u
8. clquorum list v Quorum Type d2 shared_disk 212 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum sc phys schost 1 node sc phys schost 2 node sc phys schost 3 node Start the clsetup utility clsetup Type the number that corresponds with the quorum option Type the number that corresponds with the option to remove a quorum device Answer the questions when prompted You will need the following information Information Example Quorum Device Name d2 Verify that the clquorum command completed successfully clquorum remove d2 Command completed successfully Verify that the quorum device was removed clquorum list v Quorum Type sc phys schost 1 node sc phys schost 2 node sc phys schost 3 node Type the number that corresponds with the Quorum option Type the number that corresponds with the option to add a quorum device Answer the questions when prompted You will need the following information Information Example quorum device name d2 Verify that the clquorum command was completed successfully clquorum add d2 Command completed successfully Quit the clsetup utility Verify that the correct nodes have paths to the quorum device In this example note that phys schost 3 has been added to the enabled hosts list clquorum show d2 grep Hosts Quorum Devices Quo
9. p AffinityOn True nfs dg rs create Crea el recurso 9 Especifica el grupo de recursos en el que se agrega el recurso t SUNW HAStoragePlus Especifica que el recurso es de tipo SUNW HAStoragePlus P Especifica una propiedad del recurso Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes FileSystemMountPoints global Especifica que el punto de montaje del sistema de archivos es global AffinityOn True Especifica que el recurso de aplicaciones debe efectuar una conmutaci n de afinidad en los dispositivos globales y en los sistemas de archivos del cl ster definidos por x GlobalDevicePaths Por lo tanto si el grupo de recursos de aplicaciones migra tras error o se conmuta el grupo de dispositivos asociados tambi n se conmuta nfs dg rs El nombre del recurso de amp HAStoragePlus para la aplicaci n NFS Para obtener m s informaci n sobre estas propiedades de extensi n consulte la p gina de comando man SUNW HAStoragePlus 5 Agregue un recurso de nombre de host l gico al grupo de recursos de aplicaciones nodeC clreslogicalhostname create g nfs rg Lhost nfsrg sec El nombre de host l gico del grupo de recursos de aplicaciones del cl ster secundario es lhost nfsrg sec Agregue un recurso de NSF al grupo de recursos de aplicaciones nod
10. p RG_SLM_CPU_SHARES value p y RG SLM PSET_TYPE value p RG_SLM_PSET_MIN value resource_group_name pRG_SLM_TYPE automated Permite controlar el uso de la CPU y automatiza algunos pasos para configurar el sistema operativo Oracle Solaris con el fin de administrar recursos del sistema pRG_SLM_CPU_SHARES valor Especifica el n mero de recursos compartidos de CPU asignados al proyecto espec fico del grupo de recursos project cpu shares y determina el n mero de recursos compartidos de CPU asignados al nodo sin votaci n zone cpu shares y el n mero m ximo de procesadores en un conjunto pRG_SLM_PSET_TYPE valor Habilita la creaci n de un conjunto de procesadores dedicado Para tener un conjunto de procesadores dedicado puede establecer esta propiedad como strong o weak Los valores strong y weak se excluyen mutuamente Es decir no puede configurar grupos de recursos en la misma zona para que algunos sean strong y otros weak pRG_SLM_PSET_MIN valor Determina el n mero m nimo de procesadores en el conjunto nombre_grupo_recursos Especifica el nombre del grupo de recursos Este paso crea un grupo de recursos Si lo desea utilice el comando clresourcegroup set para modificar un grupo de recursos No puede definir RG_SLM_TYPE como automated en un nodo sin votaci n si otra agrupaci n que no sea la predeterminada est en la configuraci n de la zona o si la zona est vinculada a otra Guia de administraci n del sist
11. 58 29 59 30 60 31 P VOL S VOL P VOL S VOL P VOL S VOL PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER 61114 Seq P LDEV M 61114 58 29 59 30 60 31 29 58 30 59 31 60 Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de cl ster 109 Administraci n de dispositivos replicados basados en almacenamiento Los ejemplos muestran que est n en uso los discos siguientes Enelnodol m c6t500060E8000000000000EEBA0000001Dd0s2 m c t500060E8000000000000EEBA0000001Ed0s2 m c t500060E8000000000000EEBA0000001FdOs Enelnodo m c5t500060E8000000000000EEBA0000001Dd0s2 m c5t500060E8000000000000EEBA0000001Ed0s2 m c5t500060E8000000000000EEBA0000001Fd0s2 Enelnodo3 c5t50060E800000000000004E600000003Ad0s2 m c5t50060E800000000000004E600000003Bd0s2 m c5t50060E800000000000004E600000003Cd0s2 Para ver los dispositivos de DID que corresponden a estos discos use el comando cldevice list como se muestra en los ejemplos siguientes EJEMPLO 5 10 Visualizaci n de los DID correspondientes a los discos usados cldevice list v DID Device Full Device Path 1 node 1 dev rdsk cotodo dev did rdsk dl 2 node 1 dev rdsk cot6d0 dev did rdsk d2 11 node 1 dev rdsk c6t500060E8000000000000EEBA00000020d0 dev did rdsk d11 11 node 2 dev rdsk c5t500060E8000000000000EEBA00000020d0 dev did rdsk d11 12 n
12. Entre los procedimientos de la secci n siguiente que ejecutan el comando cldevice est el argumento de ruta de disco El argumento de ruta de disco consta del nombre de un nodo y el de un disco El nombre del nodo no es imprescindible y est predefinido para convertirse en all si no se especifica Supervisi n de una ruta de disco Efect e esta tarea para supervisar las rutas de disco del cl ster Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de cl ster 185 Administraci n de la supervisi n de rutas de disco 186 A Ejemplo 5 45 Ejemplo 5 46 Precauci n Los nodos que ejecuten versiones anteriores a Sun Cluster 3 1 10 03 no admiten la supervisi n de rutas de disco No utilice los comandos de supervisi n de rutas de disco en el transcurso de una actualizaci n Tras actualizarse todos los nodos deben estar en l nea para emplear los comandos de supervisi n de rutas de disco phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ste
13. Informaci n general sobre la administraci n del cl ster v Eliminaci n del nombre de host privado para un nodo sin votaci n en un cl ster global Siga este procedimiento para eliminar un nombre de host privado para un nodo sin votaci n en un cl ster global Realice este procedimiento s lo en un cl ster global 1 Ejecute la utilidad clsetup 1CL para eliminar un nombre de host privado en la zona adecuada 2 Escriba el n mero correspondiente a la opci n del nombre de host privado de zona 3 Escriba el n mero correspondiente a la opci n de eliminar un nombre de host privado de zona 4 Escriba el nombre de host privado del nombre del nodo sin votaci n que va a eliminar v C mo cambiar el nombre de un nodo Puede cambiar el nombre de un nodo que forme parte de una configuraci n de Oracle Solaris Cluster Debe cambiar el nombre del host de Oracle Solaris para poder cambiar el nombre del nodo Utilice el clnode rename para cambiar el nombre del nodo Las instrucciones siguientes se aplican a cualquier aplicaci n que se est ejecutando en un cl ster global 1 Enel cluster global convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify 2 Sivaacambiar el nombre de un nodo de un cl ster de Oracle Solaris Cluster Geographic Edition que se encuentra en asociaci n con una configuraci n de Oracle Solaris deber llevar a cabo pasos adicionales Si el cl ster en el qu
14. Problemas de recuperaci n manual al usar una replicaci n de datos basada en almacenamiento dentro de un cl ster Como sucede en todos los cl sters de campus los que utilizan replicaci n de datos basada en almacenamiento no suelen necesitar intervenci n cuando tienen un solo error Sin embargo si se usa migraci n tras error manual y se pierde el espacio que aloja el dispositivo de almacenamiento principal como se muestra en la Figura 4 1 los problemas surgen en un nodo de dos cl sters El nodo que queda no puede reservar el dispositivo de qu rum y no se puede arrancar como miembro del cl ster En este caso el cl ster requiere la intervenci n manual siguiente l El proveedor de servicios de Oracle debe volver a configurar el nodo restante para que inicie como miembro del cl ster El proveedor de servicios de Oracle debe configurar un volumen con replicaci n anulada del dispositivo de almacenamiento secundario como dispositivo de qu rum El proveedor de servicios de Oracle debe configurar el nodo restante para que use el dispositivo de almacenamiento secundario como almacenamiento principal Esta reconfiguraci n podr a suponer la reconstrucci n de vol menes del administrador de vol menes la restauraci n de datos o el cambio de las asociaciones de aplicaci n con vol menes de almacenamiento Cap tulo 4 M todos de replicaci n de datos 95 Uso de replicaci n de datos basada en almacenamiento dentro de un cl s
15. Siga este procedimiento para restaurar los sistemas de archivos root en un disco nuevo como despu s de reemplazar un disco root incorrecto El nodo que se esta restaurando no se debe arrancar Asegurese de que el cluster se est ejecutando sin errores antes de llevar a cabo el proceso de restauraci n Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster Nota Como debe particionar el disco nuevo con el mismo formato que el defectuoso identifique el esquema de partici n antes de comenzar el proceso y vuelva a crear los sistemas de archivos de forma adecuada phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en un nodo del cl ster con acceso a los grupos de discos a los que tambi n est vinculado el nodo que se va a restaurar Use otro nodo que no sea el que va a restaurar Elimine el nombre de host del nodo que se va a restaurar desde todos los metaconjuntos Ejecute este comando desde un nodo del metaconjunto que no sea el que va a eliminar Debi
16. destacables Edite el archivo login Utilice el comando ls a para mostrar todos los archivos machine_name tiene correo machine_names su Contrase a El comando necesario para eliminar un archivo es rm filename Consulte el cap tulo 6 de la Gu a del usuario Una copia en cach es la que se almacena localmente No guarde el archivo Nota algunos elementos destacados aparecen en negrita en l nea Indicadores de los shells en los ejemplos de comandos La tabla siguiente muestra los indicadores predeterminados de sistema UNIX y de superusuario para los shells que se incluyen en el sistema operativo Oracle Solaris Tenga en cuenta que el indicador del sistema predeterminado que se visualiza en los ejemplos de comando var a en funci n de la versi n de Oracle Solaris TABLAP 2 Indicadores del shell Shell Indicador Shell Bash Shell Korn y Shell Bourne Shell Bash Shell Korn y Shell Bourne para superusuario Shell C machine_name Shell C para superusuario machine_name num_nombre_equipo 14 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Prefacio Documentaci n relacionada Puede encontrar informaci n sobre temas referentes a Oracle Solaris Cluster en la documentaci n enumerada en la tabla siguiente Toda la documentaci n de Oracle Solaris Cluster est disponible en http www oracle com technetwork indexes documentation ind
17. 255 Y Eliminaci n de un nodo sin votaci n zona de un cl ster global nniciciininincinnnnennnnns 258 W Eliminaci n de la conectividad entre una matriz y un nico nodo en un cl ster con conectividad superior a dos NOdOS ccccoccoconicinnnononancnnoncnncnconononcnnon coran coronan arcano anna aaien 259 Y Correcci n de mensajes de error 9 Administraci n del cl ster lt lt a ida 263 Informaci n general sobre la administraci n del cl ster o ocononionconinninnnmres 263 Y Cambio del nombre del cl ster simios tinta iii ds 265 Y C mo cambiar el nombre del cl ster si utiliza Veritas CVM coccnncioninnioninncenocononacacicos 266 Y Asignaci n de un ID de nodo a un nombre de nod ccccccccionicnonecnconennnncononncnnnn coronan coancaacanos 267 Y Uso de la autenticaci n del nodo del cl ster nuevo oo eee teseeseeteseeseeseetesteaeeeseaeeseaes 267 Y Restablecimiento de la hora del d a en un cl ster oo ee eeseeseeeesesseeeesseseeaeeseaneaeeseaes 269 Vv SPARC Visualizaci n de la PROM OpenBoot en un nodo cnccconionionicnnonncno cono connanroanan conca 271 Y Cambio del nombre de host privado de nodo wo eesesseeesstesesatesneatesesneeneneeseeneenteas 272 Y Adici n un nombre de host privado a un nodo sin votaci n en un cl ster global 273 Y Cambio del nombre de host privado en un nodo sin votaci n de un cl ster global 275 W Eliminaci n del nombre de host privado para un nodo sin votaci n en un cl st
18. CAP TULO 13 Administraci n de Oracle Solaris Cluster con las interfaces gr ficas de usuario Este cap tulo proporciona las descripciones de las herramientas de interfaz gr fica de usuario de Oracle Solaris Cluster Manager y Sun Management Center que podr utilizar para administrar muchos aspectos de un cl ster Tambi n contiene procedimientos para configurar e iniciar Oracle Solaris Cluster Manager La ayuda en l nea incluida con la GUI de Oracle Solaris Cluster Manager contiene instrucciones para realizar distintas tareas administrativas de Oracle Solaris Cluster Este cap tulo incluye lo siguiente Informaci n general sobre Oracle Solaris Cluster Manager en la p gina 365 SPARC Informaci n general sobre Sun Management Center en la p gina 366 Configuraci n de Oracle Solaris Cluster Manager en la p gina 367 a a a Tnicio del software Oracle Solaris Cluster Manager en la pagina 370 Informacion general sobre Oracle Solaris Cluster Manager Oracle Solaris Cluster Manager es una GUI que permite visualizar informacion del cluster comprobar el estado de los componentes del cl ster y supervisar los cambios aplicados a la configuraci n Oracle Solaris Cluster Manager tambi n permite realizar numerosas tareas administrativas para los componentes siguientes de Oracle Solaris Cluster Adaptadores Cables Servicios de datos Dispositivos globales Interconexiones Uniones L mites de carga de n
19. Ejemplo 399 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 400 Cree un grupo de recursos de replicaciones para el grupo de dispositivos nodeC clresourcegroup create Y p Pathprefix global etc Y p Auto_start_on_new_cluster False Y p RG_dependencies devgrp stor rg nfs rg create Crea el grupo de recursos P Especifica una propiedad del grupo de recursos Pathprefix global etc Especifica un directorio en el que los recursos del grupo pueden guardar los archivos de administraci n Auto_start_on_new_cluster False Especifica que el grupo de recursos de aplicaciones no se inicie de forma autom tica RG_dependencies devgrp stor rg Especifica los grupos de recursos de los que depende el grupo de recursos de aplicaciones En este ejemplo el grupo de recursos de aplicaciones depende del grupo de recursos de replicaciones Si el grupo de recursos de aplicaciones se conmuta a un nodo primario nuevo el grupo de recursos de replicaciones se conmuta autom ticamente Sin embargo si el grupo de recursos de replicaciones se conmuta a un nodo primario nuevo el grupo de recursos de aplicaciones se debe conmutar de forma manual nfs rg El nombre del grupo de recursos de aplicaciones Agregue un recurso de SUNW HAStoragePlus al grupo de recursos de aplicaciones nodeC clresource create g nfs rg Y t SUNW HAStoragePlus Y p FileSystemMountPoints global mountpoint
20. GRUB seleccione la entrada de Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10_x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Indique el nodo del cl ster de zona que se vaya a cerrar y rearrancar phys schost clzonecluster reboot node zoneclustername Nota Los nodos deben disponer de una conexi n operativa con la interconexi n de cl ster para poder convertirse en miembros del cl ster 4 Compruebe que el nodo haya arrancado sin errores y est en l nea Compruebe que el nodo del cl ster global est en l nea phys schost cluster status t node Compruebe que el nodo del cluster de zona est en linea phys schost clzonecluster status Capitulo3 Cierre y arranque de un cl ster 81 Cierre y arranque de un solo nodo de un cl ster 82 Ejemplo 3 11 Ejemplo 3 12 SPARC Rearranque de un nodo del cl ster global El ejemplo siguiente muestra la salida de la consola cuando se rearranca el nodo phys schost 1 Los mensajes correspondientes a este nodo como las notificaciones de cierre e inicio aparecen en las consolas de los otros nodos del cl ster global phys schost clnode evacuate phys schost 1 phys schost shutdo
21. Puede cerrar un cl ster global uno de zona o todos los cl sters de zona Precauci n No use el comando send brk en la consola de un cl ster para cerrar un nodo del cl ster global ni un nodo de un cl ster de zona El comando no puede utilizarse dentro de un cl ster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Si el cl ster global o el de zona ejecutan Oracle Real Application Clusters RAC cierre todas las instancias de base de datos del cl ster que va a cerrar Consulte la documentaci n del producto de Oracle RAC para ver los procedimientos de cierre Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n RBAC solaris cluster admin en todos los nodos del cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global Cierre el cl ster global el de zona o todos los clusters de zona m Cierre el cl ster global Esta acci n cierra tambi n todos los clusters de zona phys schost cluster shutdown g0 y Cierre un cl ster de zona concreto phys schost clzonecluster halt zoneclustername Cierre todos los clusters de zona phys schost clzonecluster halt El comando clust
22. Pulse Control D para reanudar en modo multiusuario El nodo se rearranca en modo de cluster El cluster esta preparado para utilizarse Restauraci n de un sistema de archivos root no encapsulado Veritas Volume Manager El ejemplo siguiente muestra un sistema de archivos root no encapsulado restaurado en el nodo phys schost 1 desde el dispositivo de cinta dev rmt 0 Replace the failed disk and boot the node Inicie el nodo desde el CD del sistema operativo Oracle Solaris Escriba el comando siguiente en el indicador ok de la PROM OpenBoot ok boot cdrom s Capitulo12 Copias de seguridad y restauraciones de clusters 359 Restauraci n de los archivos del cl ster 360 Use format and newfs to create partitions and file systems Mount the root file system on a temporary mount point mount dev dsk c0to0d0s0 a Restore the root file system cd a ufsrestore rvf dev rmt 0 rm restoresymtable cd umount a fsck dev rdsk cOt0d0s0 Install a new boot block usr sbin installboot usr platform uname i lib fs ufs bootblk dev rdsk c0t0d0s0 Reboot reboot Update the disk ID cldevice repair dev rdsk cotodo Restauraci n de un sistema de archivos root encapsulado Veritas Volume Manager Siga este procedimiento para restaurar un sistema de archivos ra z encapsulado en un nodo El nodo que se est restaurando no se debe arrancar Antes de efectua
23. a Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n RBAC solaris cluster admin en el cl ster que se va a iniciar en un modo que no es de cl ster b Cierre el nodo con los comandos clnode evacuate y cluster shutdown El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia El comando tambi n conmuta todos los grupos de recursos desde los nodos de votaci n o sin votaci n del nodo especificado hasta el siguiente nodo por orden de preferencia sea de votaci n o sin votaci n clnode evacuate node cluster shutdown g0 y Inicie la utilidad clsetup desde un nodo Cuando se ejecuta en un modo que no sea de cl ster la utilidad cl setup muestra el men principal para operaciones de un modo que no sea de cl ster Escriba el n mero correspondiente a la opci n de cambiar el rango de direcciones IP y pulse la tecla Intro La utilidad clsetup muestra la configuraci n de red privada actual a continuaci n pregunta si desea modificar esta configuraci n Para cambiar la direcci n IP de red privada o el intervalo de direcciones de red IP escriba yes y pulse la tecla Intro La utilidad cl setup muestra la direcci n IP de red privada 172 16 0 0 y pregunta si desea aceptarla de forma predeterminada Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexion
24. destinado a administradores de sistemas con amplios conocimientos de software y hardware de Oracle Este documento no se puede usar como una gu a de planificaci n ni de preventas Las instrucciones de este documento presuponen un conocimiento del sistema operativo Oracle Solaris y el dominio del software del administrador de vol menes que se utiliza con Oracle Solaris Cluster Uso de los comandos de UNIX Este documento contiene informaci n sobre comandos espec fica para administrar una configuraci n de Oracle Solaris Cluster Este documento podr a no contener informaci n completa sobre los comandos y procedimientos b sicos de UNIX Consulte al menos una de las fuentes de informaci n siguientes Documentaci n en l nea del software de Oracle Solaris Otradocumentaci n de software recibida con el sistema Paginas de comando man del sistema operativo Oracle Solaris Prefacio Convenciones tipogr ficas La siguiente tabla describe las convenciones tipogr ficas utilizadas en este manual TABLAP 1 Convenciones tipogr ficas Tipo de letra Significado Ejemplo AaBbCc123 AaBbCc123 aabbcc123 AaBbCc123 Los nombres de comandos archivos y directorios asi como la salida del equipo en pantalla Lo que se escribe en contraposici n con la salida del equipo en pantalla Marcador de posici n debe sustituirse por un valor o nombre real T tulos de manuales t rminos nuevos y palabras
25. 10 11 12 13 14 Errores mas frecuentes Acepte los certificados que presente el navegador web Aparece la p gina de inicio de sesi n de Java Web Console Indique el nombre y la contrase a del usuario que quiera que tenga acceso a Oracle Solaris Cluster Manager Haga clic en el bot n Log In Iniciar sesi n Aparece la p gina de inicio de la aplicaci n de Java Web Console Haga clic en el v nculo de Oracle Solaris Cluster Manager en la categor a Systems Sistemas Acepte cualquier otro certificado que presente el navegador web Si no puede conectarse a Oracle Solaris Cluster Manager efect e los subpasos siguientes para determinar si se ha elegido un perfil de red restringido durante la instalaci n de Solaris y para restaurar el acceso externo al servicio de Java Web Console Si elige un perfil de red restringido durante la instalaci n de Oracle Solaris el acceso externo al servicio de Sun Java Web Console est restringido Esta red es necesaria para usar la GUI de Oracle Solaris Cluster Manager a Determine siel servicio de Java Web Console est restringido svcprop system webconsole console grep tcp_listen Si el valor de la propiedad de tcp_listen no es true el servicio de la consola web est restringido b Restaure el acceso externo al servicio de Java Web Console svccfg svc gt select system webconsole svc system webconsole gt setprop options tcp_listen true svc system webconsol
26. 293 modificar propiedades 61 utilidad clsetup 20 21 27 Vv validar configuraci n de cl ster de zona 45 configuraci n de cluster global 45 ver configuraci n de cl ster de zona 36 configuraci n de cl ster global 36 Veritas administraci n 100 copias de seguridad en l nea 345 restaurar sistema de archivos ra z encapsulados 360 restaurar sistema de archivos root no encapsulado 358 Veritas Volume Manager VxVM nombres de dispositivos de disco b sico 179 volumen Ver replicaci n basada en almacenamiento vol menes agregar a grupos de dispositivos 147 eliminar de grupos de dispositivos 155 156 realizar una copia de seguridad en l nea 345 VxVM 100 Z ZFS agregar grupos de dispositivos 139 eliminar el sistema de archivos 297 300 replicaci n 139 restricciones para sistemas de archivos root 125 126 ZFS Storage Appliance Ver dispositivos del qu rum de Sun ZFS Storage Appliance zonas de direcciones IP compartidas Ver zonas de Oracle Solaris zonas de direcciones IP exclusivas Ver zonas de Oracle Solaris zonas de Oracle Solaris modificaciones en el archivo nsswitch conf 252 propiedad autoboot 251 zonas de direcciones IP compartidas 252 zonas de direcciones IP exclusivas configurar grupos IPMP 253 zonas Oracle Solaris zonas de direcciones IP exclusivas configurar el archivo hosts 253 424 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A
27. Administration Guide Ejecute la utilidad clsetup 1CL para cambiar el nombre de host privado del nodo sin votaci n adecuado de cl ster global phys schost clsetup Este paso debe hacerse desde un solo nodo del cl ster Nota Cuando seleccione un nombre nuevo para el sistema privado compruebe que no se utilice en el cl ster Escriba el n mero correspondiente a la opci n de nombres de host privados y pulse la tecla Intro Escriba el n mero correspondiente a la opci n de agregar un nombre de host privado de zona y pulse la tecla Intro No existe un nodo sin votaci n predeterminado del nombre de host privado de un cl ster global Se debe proporcionar un nombre de host Escriba el n mero correspondiente a la opci n de cambiar el nombre de host privado de zona Responda a las preguntas cuando se indique Se le solicitar el nombre del nodo sin votaci n cuyo nombre de host privado est cambiando clusternode lt id_nodo gt priv as como el nombre nuevo del sistema privado Purgue la memoria cach del servicio de nombres Efect e este paso en todos los nodos del cl ster La purga evita que las aplicaciones del cl ster y los servicios de datos intenten acceder al nombre de host privado anterior phys schost nscd i hosts Habilite todos los recursos de servicio de datos y otras aplicaciones inhabilitados en el Paso 1 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A
28. DUMP Writing 63 Kilobyte records DUMP Date of this level 0 dump Tue Apr 25 16 15 51 2000 DUMP Date of last level 0 dump the epoch DUMP Dumping dev vx dsk schost 2 bkup vol to dev rmt 0 DUMP DUMP IS DONE Remove the bkup volume vxedit rf rm bkup vol Synchronize the disk group cldevicegroup sync schost 1 348 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster v Copias de seguridad de la configuraci n del cl ster Para asegurarse de que se archive la configuraci n del cl ster y para facilitar su recuperaci n realice peri dicamente copias de seguridad de la configuraci n del cl ster Oracle Solaris Cluster proporciona la capacidad de exportar la configuraci n del cl ster a un archivo eXtensible Markup Language XML 1 Inicie sesi n en cualquier nodo del cl ster y convi rtase en superusuario o asuma una funci n que le proporcione la autorizaci n de RBAC solaris cluster read 2 Exporte la informaci n de configuraci n del cl ster a un archivo usr cluster bin cluster export o configfile archivo_conf El nombre del archivo de configuraci n XML al que el comando del cl ster va a exportar la informaci n de configuraci n del cl ster Para obtener informaci n sobre el archivo de configuraci n XML consulte clconfiguration 5CL 3 Compruebe que la informaci n de configuraci n del cl ster se haya exportado cor
29. FIGURA A 8 Vol menes del grupo de dispositivos T Volumen 1 amp maestro El Volumen 2 sombra Volumen 3 mapa de bits b de un momento determinado J Volumen 4 mapa de bits k por duplicaci n remota g Volumen 5 be archivo dfstab E Nota Los vol menes definidos en este procedimiento no deben incluir las reas privadas de etiquetas de discos como el cilindro 0 El software VxVM administra autom ticamente esta limitaci n Configuraci n de un grupo de dispositivos en el cl ster primario Aseg rese de realizar las tareas siguientes Lea las directrices y los requisitos de las secciones siguientes Comprensi n del software Sun StorageTek Availability Suite en un cl ster en la p gina 376 Directrices para la configuraci n de replicaci n de datos basada en host entre clusters en la p gina 379 Configure los clusters primario y secundario como se describe en Conexi n e instalaci n de cl sters en la p gina 385 Ap ndice A Ejemplo 389 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes 390 Vv Antes de empezar Obtenga acceso al nodo nodeA como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify El nodo nodeA es el primero del cl ster primario Si desea recordar qu nodo es nodeA consulte la Figura A 7 Cree un grupo de discos en el n
30. La Figura 4 1 muestra que el dispositivo de qu rum est en un volumen sin replicar Un volumen replicado no es v lido como dispositivo de qu rum Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster FIGURA 4 1 Dspositivo de qu rum Configuraci n de dos salas con replicaci n de datos basada en almacenamiento Configuraci n inicial Configuraci n recuperada Selector FC Sala 1 Sala 2 elector FC Selector FC H Selector FC Dispositivo de Dispositivo de Dispositivo de almacena almacena miento miento secundario principal Dispositivo de almacena miento secundario almacena miento principal Dispositivo de qu rum Selector FC Selector FC Selector FC Selector FC Fibra monomodo Fibra multimodo Existe la conexi n f sica pero no se utiliza hasta que se efect a conmutaci n manual Se puede llevar a cabo una replicaci n de datos basada en almacenamiento con Hitachi TrueCopy o Hitachi Universal Replicator de forma sincr nica o asincr nica en el entorno de Oracle Solaris Cluster seg n el tipo de aplicaci n que utilice Si desea efectuar una migraci n tras error autom tica en un cl ster de
31. NAS de Network Appliance NetApp como dispositivo de qu rum deben cumplirse los requisitos siguientes Debe instalar la licencia de iSCSI de NetApp Cap tulo6 Administraci n de qu rum 201 Administraci n de dispositivos de qu rum 202 Debe configurar un LUN de iSCSI LUN en el archivador integrado en el cl ster para utilizarlo como dispositivo de qu rum a Debe configurar la unidad NAS de NetApp de forma que use NTP para sincronizar la hora Al menos uno de los servidores NTP seleccionados para el archivador integrado en el cl ster debe ser un servidor NTP para los nodos de Oracle Solaris Cluster Alarrancar el cl ster arranque siempre el dispositivo de NAS antes de iniciar los nodos del cl ster Si arranca los dispositivos en un orden incorrecto los nodos no pueden detectar el dispositivo de qu rum Si en esta situaci n se diera un error en un nodo es posible que el cl ster deje de funcionar Si se interrumpe el servicio debe rearrancar todo el cl ster entero o quitar el dispositivo de qu rum NAS de NetApp y volverlo a agregar Un cl ster puede usar un dispositivo de NAS s lo para un dispositivo de qu rum Si necesita m s dispositivos de qu rum puede configurar otro almacenamiento compartido Los cl sters adicionales que usen el mismo dispositivo de NAS pueden emplear LUN separados en ese dispositivo como dispositivos de qu rum Consulte la documentaci n siguiente de Oracle Solaris C
32. Reboot reboot Replace the disk ID cldevice repair dev rdsk cotodo Re create state database replicas metadb c 3 af dev rdsk cOt0d0s4 Add the node back to the metaset phys schost 2 metaset s schost 1 a h phys schost 1 Restauraci n de un sistema de archivos root no encapsulado Veritas Volume Manager Siga este procedimiento para restaurar un sistema de archivos root no encapsulado en un nodo El nodo que se est restaurando no se debe arrancar Antes de efectuar el procedimiento de restauraci n compruebe que el cl ster se ejecute sin errores Nota Como el disco nuevo debe particionarse con el mismo formato que el defectuoso identifique el esquema de partici n antes de comenzar el proceso y vuelva a crear los sistemas de archivos de forma adecuada phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Sustituya el disco defectuoso en el nodo donde se restaurar el sistema de archivos root Consulte los procesos de sustituci n en la documentaci n que se suministra con el servidor Arranque el nodo que est restaurando Siesta usando el CD del sistema operativo Oracle Solaris escriba el comando siguiente
33. Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 Conversi n de un grupo de discos local en un grupo de dispositivos VxVM en la p gina 153 Conversi n de un grupo de dispositivos en un grupo de discos local VxVM en la p gina 154 Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager en la p gina 152 Eliminaci n de un volumen de un grupo de dispositivos Veritas Volume Manager en la p gina 155 Eliminaci n y anulaci n del registro de un grupo de dispositivos Veritas Volume Manager en la p gina 156 Adici n de un nodo a un grupo de dispositivos Veritas Volume Manager en la p gina 157 Eliminaci n de un nodo de un grupo de dispositivos Veritas Volume Manager en la p gina 159 Eliminaci n de un nodo de un grupo de dispositivos de discos b sicos en la p gina 161 Cambio de propiedades de los grupos de dispositivos en la p gina 162 Enumeraci n de la configuraci n de grupos de dispositivos en la p gina 167 Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 129 cl ster Administraci n de grupos de dispositivos 130 TABLA 5 4 Mapa de tareas administrar grupos de dispositivos Continuaci n Tarea Instrucciones Cambiar el n mero deseado de Establecimiento del n mero de secu
34. SUNWscdhc 3 2 0 REV 2006 12 06 18 32 SUNWscebs 3 2 0 REV 2006 12 06 18 32 SUNWscmqi 3 2 0 REV 2006 12 06 18 32 SUNWscmqs 3 2 0 REV 2006 12 06 18 32 SUNWscmys 3 2 0 REV 2006 12 06 18 32 SUNWscsge 3 2 0 REV 2006 12 06 18 32 SUNWscsaa 3 2 0 REV 2006 12 06 18 32 SUNWscsag 3 2 0 REV 2006 12 06 18 32 SUNWscsmb 3 2 0 REV 2006 12 06 18 32 SUNWscsps 3 2 0 REV 2006 12 06 18 32 SUNWsctomcat 3 2 0 REV 2006 12 06 18 32 Visualizacion de tipos de recursos configurados grupos de recursos y recursos Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte el Cap tulo 13 Administraci n de Oracle Solaris Cluster con las interfaces gr ficas de usuario o consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Para utilizar subcomando todos los usuarios necesitan la autorizaci n RBAC solaris cluster read menos el superusuario Visualice los tipos de recursos los grupos de recursos y los recursos configurados para el cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global phys schost clust
35. Si el dispositivo que pretende quitar es el ltimo dispositivo de qu rum se recomienda agregar primero otro disco como nuevo dispositivo de qu rum As se dispone de un dispositivo de qu rum si hubiera un error durante el procedimiento de sustituci n Consulte Adici n de un dispositivo de qu rum en la p gina 196 para agregar un nuevo dispositivo de qu rum Consulte Eliminaci n de un dispositivo de qu rum en la p gina 208 para quitar un dispositivo de disco como dispositivo de qu rum Sustituya el dispositivo de disco Para reemplazar el dispositivo de disco consulte los procedimientos sobre el recept culo para discos en Oracle Solaris Cluster 3 3 Hardware Administration Manual Agregue el disco sustituido como nuevo dispositivo de qu rum Consulte Adici n de un dispositivo de qu rum en la p gina 196 para agregar un disco como nuevo dispositivo de qu rum Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de servidores de qu rum de Oracle Solaris Cluster Nota Si ha agregado un dispositivo de qu rum adicional en el Paso 1 ahora puede quitarlo con seguridad Consulte Eliminaci n de un dispositivo de qu rum en la p gina 208 para quitar el dispositivo de qu rum Cambio del tiempo de espera predeterminado del qu rum Existe un tiempo de espera predeterminado de 25 segundos para la finalizaci n de operaciones del qu rum duran
36. Todos los datos de las bases de datos en el caso de que se ejecuten servicios de datos DBMS Informacion sobre las particiones de los discos correspondiente a todos los discos del cl ster Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 23 Procedimiento para empezar a administrar el cl ster Procedimiento para empezar a administrar el cl ster La Tabla 1 2 proporciona un punto de partida para administrar el cl ster Nota Los comandos de Oracle Solaris Cluster que s lo ejecuta desde el nodo de votaci n del cl ster global no son v lidos para los cl steres de zona Consulte la p gina de comando man de Oracle Solaris Cluster para obtener informaci n sobre la validez del uso de un comando en zonas TABLA 1 2 Herramientas de administraci n de Oracle Solaris Cluster Tarea Herramienta Instrucciones Iniciar sesi n en el cl ster de forma remota Configurar el cl ster de forma interactiva Mostrar informaci n sobre el n mero y la versi n de Oracle Solaris Cluster Mostrar los recursos grupos de recursos y tipos de recursos instalados Supervisar los componentes del cl ster de forma gr fica Administrar gr ficamente algunos componentes del cl ster Comprobar el estado de los componentes del cl ster Utilice el comando ccp para iniciar la ejecuci n del panel de control del cl ster A continuaci n seleccione uno de los siguientes iconos cconsole crlogin cs
37. Validaci n de una configuraci n b sica de cl ster en la p gina 45 Visualizaci n del contenido de los registros de comandos de Oracle Solaris Cluster en la p gina 52 Visualizaci n de los mensajes del sistema de Gu a de administraci n del sistema Administraci n avanzada Solaris Volume Manager Administration Guide v Inicio de sesi n remota en el cl ster El panel de control del cl ster ofrece un launchpad para las herramientas cconsole crlogin cssh y ctelnet Todas las herramientas inician una conexi n de varias ventanas con un conjunto de nodos especificados La conexi n de varias ventanas consta de una ventana host Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 25 Procedimiento para empezar a administrar el cl ster 26 Antes de empezar para cada uno de los nodos indicados y una ventana com n Las entradas recibidas en la ventana com n se env an a cada una de las ventanas del host de este modo se pueden ejecuta comandos simult neamente en todos los nodos del cl ster Tambi n puede iniciar sesiones de cconsole crlogin cssh o ctelnet desde la l nea de comandos La utilidad cconsole emplea de forma predeterminada una conexi n telnet con las consolas de los nodos Para establecer conexiones de shell seguro con las consolas en el men Opciones de la ventana cconsole habilite la casilla de verificaci n Usar SSH Tambi n puede indicar la opci n
38. a Compruebe que el sistema de archivos tenga espacio suficiente en el disco para el archivo de almacenamiento de seguridad df k b Compruebe que ya no exista el archivo de almacenamiento de seguridad con el mismo nombre y la misma ubicaci n ls backing store file c Creelainstantanea de UFS fssnap F ufs o bs backing store file file system d Compruebe que la instant nea se haya creado usr lib fs ufs fssnap i file system Realice una copia de seguridad de la instantanea del sistema de archivos ufsdump Oucf dev rmt 0 snapshot name Por ejemplo ufsdump Qucf dev rmt 0 dev rfssnap 1 Capitulo12 Copias de seguridad y restauraciones de clusters 341 Copia de seguridad de un cl ster 342 7 Ejemplo 12 3 Compruebe que la copia de seguridad de la instant nea se haya completado correctamente ufsrestore ta dev rmt 0 Rearranque el nodo en modo de cl ster init 6 Copias de seguridad del sistema de archivos root En el ejemplo siguiente se guarda una instant nea del sistema de archivos root en scratch usr back file en el directorio usr fssnap F ufs o bs scratch usr back file usr dev fssnap 1 Copias de seguridad en linea para duplicaciones Solaris Volume Manager Se puede realizar una copia de seguridad de un volumen de Solaris Volume Manager sin desmontarlo o poner la duplicaci n completa fuera de l nea Una de las subduplicaciones debe ponerse temporalme
39. clquorum disable d20 clquorum status d20 Cluster Quorum Quorum Votes by Device Device Name Present Possible Status d20 1 1 Offline Para volver a habilitar el dispositivo de qu rum consulte Procedimiento para sacar un dispositivo de qu rum del estado de mantenimiento en la p gina 215 Para poner un nodo en estado de mantenimiento consulte Colocaci n de un nodo en estado de mantenimiento en la p gina 279 Procedimiento para sacar un dispositivo de qu rum del estado de mantenimiento Siga este procedimiento cuando desee sacar un dispositivo de qu rum del estado de mantenimiento y restablecer el valor predeterminado para el n mero de votos Precauci n Si no especifica ni la opci n global dev ni node el n mero de qu rum se restablece para todo el cl ster Al configurar un dispositivo de qu rum el software Oracle Solaris Cluster asigna al dispositivo de qu rum un n mero de votos de N 1 donde N es el n mero de votos conectados al dispositivo de qu rum Por ejemplo un dispositivo de qu rum conectado a dos nodos con n meros de votos cuyo valor no sea cero tiene un n mero de qu rum de uno dos menos uno Para sacar un nodo de un cl ster y sus dispositivos de qu rum asociados del estado de mantenimiento consulte Procedimiento para sacar un nodo del estado de mantenimiento en la p gina 281 Cap tulo6 Administraci n de qu rum 215 Administraci n de dispositivos de
40. conmutador mediante clsetup Quitar un cable de transporte de cl ster un Eliminaci n de cable de transporte de cl ster adaptadores de adaptador de transporte o un conmutador transporte y conmutadores de transporte en la p gina 233 de transporte mediante clsetup Habilitar un cable de transporte de cl ster Habilitaci n de un cable de transporte de cl ster mediante clsetup en la p gina 236 Inhabilitar un cable de transporte de cl ster Inhabilitaci n de un cable de transporte de cl ster mediante clsetup en la p gina 237 Determinar el n mero de instancia deun Determinaci n del n mero de instancia de un adaptador de adaptador de transporte transporte en la p gina 239 Cambiar la direcci n IP o el intervalo de Modificaci n de la direcci n de red privada o del intervalo de direcciones de un cl ster direcciones de un cl ster en la p gina 240 228 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexiones de cl sters Reconfiguraci n din mica con interconexiones de cl sters Al completar operaciones de reconfiguraci n din mica en las interconexiones de cl sters es preciso tener en cuenta una serie de factores Todos los requisitos los procedimientos y las restricciones documentados sobre la reconfiguraci n din mica de Oracle Solaris tambi n son v lidos para la reconfiguraci n din mica en Oracle Solaris Cluster
41. dispositivo Especifica el nombre de la ruta de dispositivo o el nombre del dispositivo Si desea obtener m s informaci n consulte la p gina de comando man cluster 1CL Configuraci n del protocolo de protecci n de un solo dispositivo En el ejemplo siguiente se configura el dispositivo d5 especificado por su n mero de dispositivo con el protocolo SCSI 3 cldevice set p default_fencing prefer3 d5 En el ejemplo siguiente se desactiva la protecci n predeterminada del dispositivo d11 cldevice set p default_fencing nofencing d11 Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 177 cl ster Administraci n de sistemas de archivos de cl ster Administraci n de sistemas de archivos de cl ster 178 A El sistema de archivos de cl ster est disponible globalmente Se puede leer y tener acceso a l desde cualquier nodo del cl ster TABLA 5 5 Mapa de tareas administrar sistemas de archivos de cl ster Tarea Instrucciones Agregar sistemas de archivos de cl ster tras Adici n de un sistema de archivos de cl ster en la p gina 178 la instalaci n inicial de Oracle Solaris Cluster Eliminar un sistema de archivos de cl ster Eliminaci n de un sistema de archivos de cl ster en la p gina 182 Comprobar los puntos de montaje globales Comprobaci n de montajes globales en un cl ster de un cl ster para verificar la coheren
42. en el campo State estado para el grupo de discos seleccionado Detenga todos los servicios de datos que est n accediendo al sistema de archivos clresourcegroup offline resource group Nota Detenga todos los servicios de datos para asegurarse de que se realice la copia de seguridad del sistema de archivos de datos adecuadamente Si no se est ejecutando ning n servicio de datos no debe realizar los pasos Paso 6 y Paso 8 Cree un volumen de copia de seguridad con el nombre bkup vol y con ctelo con el volumen de la instant nea vxassist g diskgroup snapshot volume bkup vol Reinicie los servicios de datos que detuvo en el Paso 6 con el comando cl resourcegroup clresourcegroup online zone n node resourcegroup nodo El nombre del nodo zona El nombre del nodo sin votaci n de cl ster global nodo que puede controlar el grupo de recursos Especifique la zona nicamente si ha se alado un nodo sin votaci n al crear el grupo de recursos Compruebe si el volumen est ya conectado al volumen nuevo bkup vol vxprint g diskgroup Registre el cambio en la configuraci n del grupo de dispositivos cldevicegroup sync diskgroup Compruebe el volumen de la copia de seguridad fsck y dev vx rdsk diskgroup bkup vol Realice una copia de seguridad para copiar el volumen bkup vol en una cinta u otro medio Use el comando ufsdump 1M u otra utilidad de copia de seguridad que utilice normalmente ufsdump Oucf dump
43. excepto la inactividad del sistema operativo Por lo tanto consulte la documentaci n sobre la reconfiguraci n din mica de Oracle Solaris antes de utilizarla con el software Oracle Solaris Cluster Preste especial atenci n a los problemas que afecten a los dispositivos de E S no conectados a red durante las operaciones de desconexi n de reconfiguraci n din mica El software Oracle Solaris Cluster rechaza las operaciones de eliminaci n de tarjetas de reconfiguraci n din mica realizadas en interfaces de interconexi n privada activas Debe eliminar del cl ster por completo un adaptador activo con el fin de desarrollar DR en una interconexi n de cl ster activa Use el men clsetup o los comandos correspondientes Precauci n El software Oracle Solaris Cluster necesita que cada nodo del cl ster disponga al menos de una ruta que funcione y se comunique con cualquier otro nodo del cl ster No inhabilite una interfaz de interconexi n privada que proporcione la ltima ruta a cualquier nodo del cl ster Aplique los procedimientos siguientes en el orden indicado al realizar operaciones de reconfiguraci n din mica en interfaces de redes p blicas TABLA 7 2 Mapa de tareas reconfiguraci n din mica con interfaces de redes p blicas Tarea Instrucciones 1 Inhabilitar y eliminar la interfaz de la Reconfiguraci n din mica con interfaces de red p blica interconexi n activa en la p gina 244 2 Efectuar la opera
44. gina 283 Para obtener informaci n sobre los procedimientos de hardware consulte Oracle Solaris Cluster 3 3 Hardware Administration Manual Para obtener una lista completa de las tareas necesarias para eliminar un nodo del cl ster consulte la Tabla 8 2 Para agregar un nodo a un cl ster ya existente consulte Adici n de un nodo a la lista de nodos autorizados en la p gina 248 Eliminaci n de un nodo sin votaci n zona de un cl ster global Convi rtase en superusuario en el nodo del cl ster global donde haya creado el nodo sin votaci n Elimine el nodo sin votaci n del sistema Siga los procedimientos de Eliminaci n de una zona no global del sistema de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Eliminaci n de nodos de un cl ster Eliminaci n de la conectividad entre una matriz y un nico nodo en un cl ster con conectividad superior a dos nodos Use este procedimiento para desconectar una matriz de almacenamiento de un nodo nico de un cl ster en un cl ster que tenga conectividad de tres o cuatro nodos phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos
45. iSNS disabled iscsiadm add static config iqn LUNName IPAddress_of_NASDevice devfsadm i iscsi cldevice refresh Desde un nodo del cluster configure los DID correspondientes al LUN de iSCSI usr cluster bin cldevice populate Identifique el dispositivo DID que representa el LUN del dispositivo NAS que ya se ha configurado en el cluster mediante iSCSI Use el comando cldevice show para ver la lista de nombres de DID Consulte la p gina de comando man cldevice 1CL si desea obtener informacion adicional Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum 6 Utilice el comando clquorum para agregar el dispositivo NAS como dispositivo del qu rum mediante el dispositivo DID identificado en el Paso 4 clquorum add d20 El cl ster tiene reglas predeterminadas para decidir si se deben usar scsi 2 scsi 3 o los protocolos de qu rum del software Consulte la clquorum 1CL para m s informaci n Ejemplo6 2 Agregar un dispositivo del qu rum NAS de Sun o de Sun ZFS Storage Appliance En el ejemplo siguiente se muestra el comando clquorum generado por clsetup al agregar un dispositivo de qu rum NAS y un paso de comprobaci n Consulte la documentaci n de instalaci n que se env a con Sun ZFS Stora
46. los comandos son id nticos 1 Compruebe que el nodo contin e como miembro del grupo y que este ltimo sea un grupo de dispositivos de VxVM El tipo de grupo de dispositivos VxVM indica que se trata de un grupo de dispositivos de VxVM phys schost 1 cldevicegroup show devicegroup 2 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster modify en un nodo del cl ster actual 3 Inicie la utilidad clsetup clsetup Aparece el men principal 4 Parareconfigurar un grupo de dispositivos escriba el n mero correspondiente a la opci n de los grupos de dispositivos y vol menes 5 Para eliminar el nodo del grupo de dispositivos de VxVM escriba el n mero correspondiente a la opci n de eliminar un nodo de un grupo de dispositivos de VxVM Siga los indicadores para eliminar un nodo del cl ster del grupo de dispositivos Se le solicitar que facilite la informaci n siguiente Grupo de dispositivos de VxVM Nombre del nodo Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 159 cl ster Administraci n de grupos de dispositivos Ejemplo 5 29 160 Compruebe que el nodo se haya eliminado del grupo o los grupos de dispositivos de VxVM cldevicegroup show devicegroup Eliminaci n de un nodo de un grupo de dispositivos VxVM En este ejemplo se muestra la eliminaci n del nodo
47. lt dev null lofiadm d globaldevices 5 En el archivo etc vfstab comente la entrada del espacio de nombre de dispositivos globales Esta entrada presenta una ruta de montaje que comienza con global devices node nodeID Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 133 cl ster Administraci n de grupos de dispositivos 134 6 10 Desmonte la partici n de dispositivos globales global devices nodegnodelD Inhabilite y vuelva a habilitar los servicios de SMF globaldevices y scmountdev svcadm disable globaldevices svcadm disable scmountdev svcadm enable scmountdev svcadm enable globaldevices A continuaci n se crea un dispositivo de lofi en globaldevices y se monta en el sistema de archivos de dispositivos globales Repita estos pasos en otros nodos cuyo espacio de nombre de dispositivos globales quiera migrar desde una partici n hasta un dispositivo de lofi Desde un nodo complete los espacios de nombre de dispositivos globales usr cluster bin cldevice populate Antes de llevar a cabo ninguna otra acci n en el cl ster compruebe que el procesamiento del comando haya concluido en cada uno de los nodos ps ef Y grep cldevice populate El espacio de nombre de dispositivos globales reside ahora en el dispositivo de lofi Migre al nodo todos los servicios que desee ejecutar en l Migraci n del espacio de nombre de disp
48. n cl ster de campus replicaci n basada en almacenamiento de dos salas 92 96 eliminar de un cl ster de zona 254 dispositivos de qu rum 195 grupos de dispositivos 156 grupos de dispositivos de Solaris Volume Manager 142 hosts de SNMP 291 matrices de almacenamiento 259 nodos 253 255 nodos de grupos de dispositivos 159 nodos de todos los grupos de dispositivos 142 nodos sin votaci n en un cl ster global 258 recursos y grupos de recursos de un cl ster de zona 297 usuarios de SNMP 293 vol menes de un grupo de dispositivos 155 156 EMCSRDF administrar 113 125 comprobar la configuraci n 117 configurar dispositivos de DID 115 116 configurar un grupo de replicaciones 113 115 ejemplo de configuraci n 118 125 pr cticas recomendadas 96 recuperar tras error completo con migraci n de sala primaria de cl ster de campus 122 125 requisito 94 417 ndice EMC SRDF Continuaci n restricciones 94 encapsular discos 145 enumerar configuracion de grupo de dispositivos 167 enumerar en una lista configuraci n de qu rum 217 espacio de nombre global 97 100 130 migrar 132 espacio de nombre de dispositivos globales migrar 132 establecer la hora del cl ster 269 estado componente de cl ster de zona 32 componente de cl ster global 32 estado de mantenimiento nodos 279 poner un dispositivo de mantenimiento en 214 sacar un dispositivo de qu rum de 215 F fuera de servicio dispositivo de qu
49. n del dispositivo de qu rum de netapp_nas A continuaci n escriba yes para confirmar que va a agregar un dispositivo de qu rum netapp_nas La utilidad clsetup solicita que se indique el nombre del nuevo dispositivo de qu rum 7 Escriba el nombre del dispositivo de qu rum que va a agregar Elija el nombre que quiera para el dispositivo de qu rum Este nombre usa s lo para procesar futuros comandos administrativos La utilidad cl setup solicita que indique el nombre del archivador correspondiente al nuevo dispositivo de qu rum 8 Escriba el nombre del archivador del nuevo dispositivo de qu rum Es la direcci n o el nombre accesible desde la red del archivador La utilidad cl setup solicita que indique el ID de LUN correspondiente al archivador 9 Escriba el ID del LUN dispositivo de qu rum en el archivador La utilidad clsetup pregunta si el nuevo dispositivo de qu rum se debe agregar al archivador 10 Escriba yes para seguir agregando el nuevo dispositivo de qu rum Si se agrega correctamente el nuevo dispositivo de qu rum la utilidad clsetup muestra el correspondiente mensaje 11 Compruebe que se haya agregado el dispositivo de qu rum clquorum list v Ejemplo6 3 Adici n de un dispositivo de qu rum NAS de NetApp En el ejemplo siguiente se muestra el comando cl quorum generado por cl setup al agregar un dispositivo de qu rum NAS de NetApp El ejemplo tambi n muestra un paso de comprobaci n Become supe
50. n el n mero de nodos que tenga en la configuraci n del cl ster global realice uno de los pasos siguientes Si tiene dos nodos en la configuraci n del cl ster vaya al Paso 4 Si tiene m s de dos nodos en la configuraci n del cl ster vaya a Paso 3 Si el nodo que va a quitar del estado de mantenimiento va a tener dispositivos de qu rum restablezca el n mero de votos de qu rum del cl ster desde un nodo que no se est en estado de mantenimiento El n mero de qu rum debe restablecerse desde un nodo que no se est en estado de mantenimiento antes de rearrancar el nodo de lo contrario el nodo puede bloquearse mientras espera el qu rum phys schost clquorum reset reset El indicador de cambio que restablece el qu rum Arranque el nodo que est quitando del estado de mantenimiento Compruebe el n mero de votos de qu rum phys schost clquorum status El nodo que ha quitado del estado de mantenimiento deber tener el estado de online y mostrar el n mero de votos adecuado para los votos de qu rum Present y Possible Eliminaci n de un nodo del cl ster del estado de mantenimiento y restablecimiento del n mero de votos de qu rum El ejemplo siguiente restablece el n mero de qu rum para un nodo del cl ster y sus dispositivos de qu rum a la configuraci n predeterminada y comprueba el resultado El resultado de scstat q muestra los Node votes para que phys schost 1 sea 1 y que el estado sea online La salida
51. n sobre c mo cambiar el valor del tiempo de espera del qu rum consulte Cambio del tiempo de espera predeterminado del qu rum en la p gina 219 Inicio de un servidor de qu rum Convi rtase en superusuario del host en que desee iniciar el software Oracle Solaris Cluster Use el comando clquorumserver start para iniciar el software usr cluster bin clquorumserver start quorumserver servidor_qu rum Identifica el servidor de qu rum Puede utilizar el n mero de puerto en el que el servidor de qu rum escucha Si ha especificado un nombre de instancia en el archivo de configuraci n puede utilizar este nombre Para iniciar un solo servidor de qu rum especifique el nombre de la instancia o el n mero de puerto Para iniciar todos los servidores de qu rum si se han configurado varios utilice el operando Inicio de todos los servidores de qu rum configurados En el ejemplo siguiente se inician todos los servidores de qu rum configurados usr cluster bin clquorumserver start Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de servidores de qu rum de Oracle Solaris Cluster Ejemplo 6 12 Ejemplo 6 13 Ejemplo 6 14 Inicio de un servidor de qu rum en concreto En el ejemplo siguiente se inicia el servidor de qu rum que escucha en el puerto n mero 2000 usr cluster bin clquorumserver start 2000 Detenci n de un servidor de qu rum Con
52. n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 143 cl ster Administraci n de grupos de dispositivos 144 Ejemplo 5 23 Compruebe que el nodo contin e como miembro del grupo de dispositivos y que este ltimo sea un grupo de dispositivos de Solaris Volume Manager El tipo de grupo de dispositivos SDS SVM indica que se trata de un grupo de dispositivos de Solaris Volume Manager phys schost 1 cldevicegroup show devicegroup Determine qu nodo es el primario del grupo de dispositivos cldevicegroup status devicegroup Convi rtase en superusuario del nodo propietario del grupo de dispositivos que desee modificar Elimine del grupo de dispositivos el nombre de host del nodo metaset s setname d h nodelist S Especifica el nombre del grupo de dispositivos nombre_conjunto d Elimina del grupo de dispositivos los nodos identificados con h h lista_nodos Especifica el nombre del nodo o los nodos que se van a eliminar Nota La actualizaci n puede tardar varios minutos Si el comando falla agregue la opci n f forzar metaset s setname d f h nodelist Repita el Paso 4 con cada uno de los grupos de dispositivos donde desee eliminar el nodo como nodo primario potencial Compruebe que el nodo se haya eliminado del grupo de
53. nico nodo a la vez Convi rtase en superusuario en un nodo del cl ster Ponga fuera de linea el grupo de dispositivos phys schost cldevicegroup offline devicegroup Anule el registro del grupo de dispositivos a Inicie la utilidad clsetup phys schost clsetup b Elija la opci n del men Grupos de dispositivos y vol menes c Elija la opci n del men Anular el registro de un grupo de discos de VxVM d Siga las instrucciones para especificar el grupo de discos de VxVM cuyo registro va a anular en el software Oracle Solaris Cluster Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos e Cierre la utilidad clsetup Compruebe que el grupo de discos ya no est registrado en el software Oracle Solaris Cluster phys schost cldevicegroup status En la salida del comando ya no deber a aparecer el grupo de dispositivos cuyo registro ha anulado Importe el grupo de discos phys schost vxdg import diskgroup Establezca la propiedad localonly del grupo de discos a Inicie la utilidad clsetup phys schost clsetup b Elija la opci n del men Grupos de dispositivos y vol menes c Elija la opci n del men Definir un grupo de discos VxVM como grupo de discos local d Siga las instrucciones para establecer la propiedad local only y especificar el nico nodo que controlar el grupo de discos e Cuando haya terminado salga d
54. nombres de comandos los comandos son id nticos Visualice la informaci n sobre parches de Oracle Solaris Cluster phys schost showrev p Las versiones de las actualizaciones de Oracle Solaris Cluster se identifican mediante el n mero de parche del producto principal y la versi n de la actualizaci n Visualizaci n de la informaci n sobre los parches de Oracle Solaris Cluster En el ejemplo siguiente se muestra informaci n sobre el parche 110648 05 phys schost showrev p grep 110648 Patch 110648 05 Obsoletes Requires Incompatibles Packages Visualizaci n de la informaci n de versi n de Oracle Solaris Cluster Para realizar este procedimiento no es necesario iniciar sesi n como superusuario Siga todos los pasos de este procedimiento desde un nodo del cl ster global phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Visualice la informaci n de versi n de Oracle Solaris Cluster phys schost clnode show rev v node Este comando muestra el n mero de versi n y las cadenas de caracteres de versi n de todos los paquetes de Oracle Solaris Cluster Visualizaci n de la informaci n de versi n de Oracle Solaris Cluster El ej
55. phys schost cluster status Cluster Nodes Node Status Node Name phys schost 1 phys schost 2 Cluster Transport Paths Endpoint1 Endpoint2 phys schost 1 qfel phys schost 1 hmel phys schost 4 qfel phys schost 4 hmel Cluster Quorum Quorum Votes Summary Possible Present Needed Status Online Online Status Path online Path online Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 33 Procedimiento para empezar a administrar el cl ster 34 Quorum Votes by Node Node Name Present Possible Status phys schost 1 1 1 Online phys schost 2 1 T Online Quorum Votes by Device Device Name Present Possible Status dev did rdsk d2s2 T 1 Online dev did rdsk d8s2 0 1 Offline Cluster Device Groups Device Group Status Device Group Name Primary Secondary Status schost 2 phys schost 2 Degraded Spare Inactive and In Transition Nodes Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes schost 2 Cluster Resource Groups Group Name Node Name Suspended Status test rg phys schost 1 No Offline phys schost 2 No Online test rg phys schost 1 No Offline phys schost 2 No Error stop failed test rg phys schost 1 No Online phys schost 2 No Online Cluster Resources Resource Name Node Name Status Message test_1 phys schost 1 Offline Offline phys schost 2 Online On
56. rum 214 funci n agregar funciones 57 agregar funciones personalizadas 60 configurar 55 funciones admitidas VxFS 125 funciones admitidas por VxFS 125 G global espacio de nombre 97 100 puntos de montaje comprobar 184 globales dispositivos 97 192 configurar permisos 98 puntos de montaje comprobar 50 grupo de dispositivos de discos b sicos agregar 138 139 grupos de discos crear 141 modificar 148 418 Gu a de administraci n del sistema de Oracle Solaris Cluster grupos de discos Continuaci n registrar 149 registrar cambios en configuraci n 152 grupos de dispositivos agregar 138 asignaci n de un nuevo n mero menor 148 comprobar registro 155 configurar para replicaci n de datos 388 disco b sico agregar 138 139 eliminar y anular registro 142 156 enumerar configuraci n 167 estado de mantenimiento 170 informaci n general de administraci n 127 modificar propiedades 162 propiedad primaria 162 SVM agregar 136 grupos de recursos replicaci n de datos configurar 380 directrices para configurar 379 funci n en migraci n tras error 380 grupos de recursos de aplicaciones configurar para replicaci n de datos 397 399 directrices 380 grupos de recursos de direcciones compartidas para replicaci n de datos 382 H habilitar cables de transporte 236 habilitar e inhabilitar una MIB de eventos de SNMP 288 289 hacer copia de seguridad cluster 337 349 herramienta de adminis
57. ster Compruebe la eliminaci n del nodo desde otro nodo del cl ster phys schost clnode status nodename Finalice la eliminaci n del nodo Si tiene la intenci n de desinstalar el software Oracle Solaris Cluster del nodo eliminado contin e con Desinstalaci n del software Oracle Solaris Cluster desde un nodo del cl ster en la p gina 283 Si no tiene previsto desinstalar el software Oracle Solaris Cluster del nodo eliminado puede quitar f sicamente el nodo del cl ster mediante la extracci n de las conexiones de hardware como se describe en Oracle Solaris Cluster 3 3 Hardware Administration Manual Cap tulo8 Adici n y eliminaci n de un nodo 257 Eliminaci n de nodos de un cl ster Ejemplo 8 2 V ase tambi n 258 Eliminaci n de un nodo de la configuraci n de software del cl ster Este ejemplo muestra c mo eliminar un nodo phys schost 2 desde un cl ster El comando clnode remove se ejecuta en un modo que no sea de cl ster desde el nodo que desea eliminar del cluster phys schost 2 Remove the node from the cluster phys schost 2 clnode remove phys schost 1 clnode clear F phys schost 2 Verify node removal phys schost 1 clnode status Cluster Nodes Node name Status Cluster node phys schost 1 Online Para desinstalar el software Oracle Solaris Cluster del nodo eliminado consulte Desinstalaci n del software Oracle Solaris Cluster desde un nodo del cl ster en la p
58. ster Un sistema de archivos de cl ster no se desmonta al ejecutar shutdown para detener un solo nodo Sin embargo si el nodo que se cierra es el nico que tiene una conexi n con el disco cualquier intento de tener acceso al sistema de archivos de cl ster en ese disco da como resultado un error Compruebe que se cumplan los requisitos siguientes antes de desmontar los sistemas de archivos de cl ster Se cuenta con privilegios de superusuario en un nodo del cl ster Sistema de archivos no ocupado Un sistema de archivos est ocupado si un usuario est trabajando en un directorio del sistema de archivos o si un programa tiene un archivo abierto en dicho sistema de archivos El usuario o el programa pueden estar trabajando en cualquier nodo del cl ster Convi rtase en superusuario en un nodo de cl ster Determine los sistemas de archivos de cl ster que est n montados mount v En cada nodo enumere todos los procesos que utilicen el sistema de archivos de cluster para saber los procesos que va a detener fuser c u mountpoint C Informa sobre los archivos que son puntos de montaje de sistemas de archivos y sobre cualquier archivo dentro de sistemas de archivos montados Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de sistemas de archivos de cl ster Ejemplo 5 44 u Opcional Muestra el nombre de inicio de sesi n del usuario para cada ID
59. ster global 277 nodos sin votaci n de cl ster global 275 n mero de puerto cambiar mediante Common Agent Container 368 o opciones de montaje para sistemas de archivos de cl ster requisitos 180 Oracle Solaris Cluster Manager 20 365 cambiar la direcci n de servidor 369 funciones de RBAC configurar 367 iniciar 370 nodos de cl ster de zona P cerrar 73 87 panel de control del cl ster CCP 22 especificando direcci n IP y NIC 247 253 parches iniciar 73 87 aplicar a cl ster y a firmware 326 reiniciar 80 83 aplicar un parche de reinicio a un cl ster global 321 nodos de cl ster global aplicar un parche que no es de reinicio a un cl ster de arrancar 73 87 zona 321 420 Gu a de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A ndice parches Continuaci n aplicar un parche que no sea de reinicio 330 sugerencias 320 perfiles derechos de RBAC 56 57 perfiles de derechos RBAC 56 57 permisos dispositivo global 98 planificador por reparto equitativo configuraci n de recursos compartidos de CPU 308 pr cticas recomendadas EMCSRDE 96 Hitachi TrueCopy 96 replicaci n de datos basada en almacenamiento 96 procesador de servicios del sistema SSP System Service Processor 22 PROM OpenBoot OBP 271 propiedad autoboot 251 propiedad failback 162 propiedad numsecondaries 164 propiedad primaria de grupos de dispositivos 162 propiedades failback 162 numsecondari
60. tal y como se define en las versiones anteriores de Oracle Solaris Cluster Perfil de derechos Incluye autorizaciones Permiso de identidad de funci n Comandos de Oracle Solaris Cluster Ninguna pero incluye una lista de comandos de Ejecutar los comandos seleccionados de Oracle Solaris Oracle Solaris Cluster que se ejecutan con euid 0 Cluster que se usen para configurar y administrar un cl ster incluidos los subcomandos siguientes para todos los comandos de Oracle Solaris Cluster m list show m status scha_control 1HA scha_resource get 1HA scha_resource setstatus 1HA scha_resourcegroup get 1HA scha_resourcetype get 1HA 56 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster Perfil de derechos Incluye autorizaciones Permiso de identidad de funci n Usuario de Oracle Solaris b sico Operaci n del cl ster Administrador del sistema Administraci n del cl ster Este perfil de derechos de Oracle Solaris contiene autorizaciones de Oracle Solaris adem s de la siguiente solaris cluster read El perfil de derechos es espec fico del software Oracle Solaris Cluster y cuenta con las autorizaciones siguientes solaris cluster read solaris cluster admin Este perfil de derechos de Oracle Solaris contiene las mismas autori
61. 227 Administraci n de interconexiones de cl sters clsetup 1CL Todos los comandos relacionados con las interconexiones de los cl steres deben ejecutarse en el nodo de votaci n del cl ster global Si desea informaci n sobre los procedimientos de instalaci n del software de cl ster consulte Oracle Solaris Cluster Software Installation Guide Para ver los procedimientos sobre tareas de mantenimiento y reparaci n de componentes de hardware de los cl steres consulte Oracle Solaris Cluster 3 3 Hardware Administration Manual Nota Durante los procedimientos de interconexi n de cl ster en general es factible optar por usar el nombre de puerto predeterminado si se da el caso El nombre de puerto predeterminado es el mismo que el n mero de ID de nodo interno del nodo que aloja el extremo del cable donde se sit a el adaptador TABLA 7 1 Lista de tareas administrar la interconexi n de cl ster Tarea Instrucciones Administrar el transporte del cl ster con Obtenci n de acceso a las utilidades de configuraci n del clsetup 1CL cl ster en la p gina 27 Comprobar el estado de lainterconexi n Comprobaci n del estado de la interconexi n de cl ster de los cl sters con clinterconnect en la p gina 229 status Agregar un cable de transporte de cl ster Adici n de dispositivos de cable de transporte de cluster un adaptador de transporte o un adaptadores o conmutadores de transporte en la p gina 230
62. City CA 94065 Ce logiciel ou mat riel a t d velopp pour un usage g n ral dans le cadre d applications de gestion des informations Ce logiciel ou mat riel nest pas con u ni nest destin a tre utilis dans des applications risque notamment dans des applications pouvant causer des dommages corporels Si vous utilisez ce logiciel ou mat riel dans le cadre d applications dangereuses il est de votre responsabilit de prendre toutes les mesures de secours de sauvegarde de redondance et autres mesures n cessaires son utilisation dans des conditions optimales de s curit Oracle Corporation et ses affili s d clinent toute responsabilit quant aux dommages caus s par Putilisation de ce logiciel ou mat riel pour ce type d applications Oracle et Java sont des marques d pos es d Oracle Corporation et ou de ses affili s Tout autre nom mentionn peut correspondre des marques appartenant d autres propri taires qu Oracle AMD Opteron le logo AMD etle logo AMD Opteron sont des marques ou des marques d pos es d Advanced Micro Devices Intel et Intel Xeon sont des marques ou des marques d pos es d Intel Corporation Toutes les marques SPARC sont utilis es sous licence et sont des marques ou des marques d pos es de SPARC International Inc UNIX est une marque d pos e conc d sous license par X Open Company Ltd 130724025097 Contenido A ssasnedecssesvaniavesscevonseshuesesonvopssetnconvopescouhvao c
63. Cluster Software Installation Guide La administraci n de Oracle Solaris Cluster se organiza en tareas distribuidas en la documentaci n siguiente m Tareas est ndar para administrar y mantener el cl ster global o el de zona con regularidad a diario Estas tareas se describen en la presente gu a Tareas de servicios de datos como instalaci n configuraci n y modificaci n de las propiedades Dichas tareas se describen en Oracle Solaris Cluster Data Services Planning and Administration Guide Tareas de servicios como agregar o reparar hardware de almacenamiento o de red Dichas tareas se describen en Oracle Solaris Cluster 3 3 Hardware Administration Manual En t rminos generales se pueden llevar a cabo las tareas de administraci n de Oracle Solaris Cluster mientras el cl ster est operativo Si necesita retirar un nodo del cl ster o incluso cerrar dicho nodo puede hacerse mientras el resto de los nodos contin an desarrollando las operaciones del cl ster Salvo que se indique lo contrario las tareas administrativas de Oracle Solaris Cluster deben efectuarse en el nodo de votaci n del cl ster global En los procedimientos que necesitan el cierre de todo el cl ster el impacto sobre el sistema se reduce al m nimo silos periodos de inactividad se programan fuera del horario de trabajo Si piensa cerrar el cl ster o un nodo del cl ster notif quelo con antelaci n a los usuarios Trabajo con un cl ster de zona En un cl
64. Continuaci n Tarea Instrucciones 2 Configurar los grupos de dispositivos los sistemas Ejemplo de configuraci n de grupos de dispositivos y de archivos para la aplicaci n de NFS y los grupos de de recursos en la p gina 387 recursos de los cl sters principal y secundario 3 Habilitar la replicaci n de datos en el cl ster Habilitaci n de la replicaci n en el cl ster primario primario y en el secundario en la p gina 402 gt Habilitaci n de la replicaci n en el cl ster secundario en la p gina 404 4 Efectuar la replicaci n de datos Replicaci n por duplicaci n remota en la p gina 405 Instant nea de un momento determinado en la p gina 406 5 Comprobar la configuraci n de la replicaci n de Procedimiento para comprobar la configuraci n de la datos replicaci n en la p gina 407 Conexi n e instalaci n de cl sters La Figura A 7 ilustra la configuraci n de cl sters utilizada en la configuraci n de ejemplo El cl ster secundario de la configuraci n de ejemplo contiene un nodo pero se pueden usar otras configuraciones de cl ster Ap ndice A Ejemplo 385 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite FIGURA A 7 Ejemplo de configuraci n de cl sters Cl ster primario Conmuta Nodo A Nodo B Internet Nodo C
65. Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster 2 Determine el nombre del dispositivo de qu rum que va a modificar clquorum list v 3 Iniciela utilidad clsetup clsetup Aparece el men principal 4 Escriba el n mero correspondiente a la opci n Qu rum Aparece el men Qu rum 5 Escriba el n mero correspondiente a la opci n de quitar un dispositivo de qu rum Siga las instrucciones Se preguntar el nombre del disco que se va a eliminar 6 Agregueo elimine las conexiones del nodo con el dispositivo de qu rum 7 Escriba el n mero correspondiente a la opci n de agregar un dispositivo de qu rum Siga las instrucciones Se solicitar el nombre del disco que se va a usar como dispositivo de qu rum 8 Compruebe que se haya agregado el dispositivo de qu rum clquorum list v Ejemplo6 7 Modificaci n de una lista de nodos de dispositivo de qu rum En el ejemplo siguiente se muestra c mo usar la utilidad clsetup para agregar o quitar nodos de una lista de nodos de dispositivo de qu rum En este ejemplo el nombre del dispositivo de qu rum es d2 y como resultado final del procedimiento se agrega otro nodo a la lista de nodos del dispositivo de qu rum Become superuser or assume a role that provides solaris cluster modify RBAC authorization on any node in the cluster Determine the quorum device name
66. Cree el sistema de archivos para el grupo de dispositivos nodeC newfs dev vx rdsk devgrp vol01 lt dev null nodeC newfs dev vx rdsk devgrp vol02 lt dev null Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes v Antes de empezar No se necesita ning n sistema de archivos para el vol03 o el vol04 ya que se utilizan como vol menes b sicos Vaya a Configuraci n de sistemas de archivos en el cl ster primario para la aplicaci n NFS en la p gina 391 Configuraci n de sistemas de archivos en el cl ster primario para la aplicaci n NFS Complete el procedimiento Configuraci n de un grupo de dispositivos en el cl ster secundario en la p gina 390 Convi rtase en superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster admin en el nodo nodea y el nodo nodeB En el nodo nodea y el nodo nodeB cree un directorio de punto de montaje para el sistema de archivos NFS Por ejemplo nodeA mkdir global mountpoint En el nodo nodeA y el nodo nodeB configure el volumen maestro para que se monte autom ticamente en el punto de montaje Agregue o sustituya el texto siguiente en el archivo etc vfstab del nodo nodeA y el nodo nodeB El texto debe estar en una sola l nea dev vx dsk devgrp vol01 dev vx rdsk devgr
67. DEV001 dev rdsk c5t6006048000018790002353594D303637d0s2 0067 RW 4315 Device Group RDF Information symrdf g dgl establish Execute an RDF Incremental Establish operation for device group dgl y n y An RDF Incremental Establish operation execution is in progress for device group dg1 Please wait Write Disable device s on RA at target R2 Done SUSPENG RDF UDAK S cir chee bbe dd wale okne apace a ae em AEA Done Mark target R2 devices to refresh from source R1 Started DEVICE OOO acia e e Hite od dese athe BOE yes A A Bo Marked Mark target R2 devices to refresh from source R1 Done Merge device track tables between source and target Started DEVICES 10067 iii in ete edd eo dee ered Re md E Merged Merge device track tables between source and target Done Resume RDF TINK S miii naaa aaa aa Started Resume RDF LINKES Di ia ii a a da a a Done The RDF Incremental Establish operation successfully initiated for device group dgl symrdf g dgl query Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 119 cl ster Administraci n de dispositivos replicados basados en almacenamiento EJEMPLO 5 16 Comprobaci n de la configuraci n de la replicaci n de datos Continuaci n Device Group DG Name dgl DG s Type RDF2 DG s Symmetrix ID 000187990182 Target R2 View Source
68. Oracle La red de tecnologia de Oracle http www oracle com technetwork index html ofrece una amplia variedad de recursos relacionados con el software de Oracle Si desea abordar problemas t cnicos y soluciones utilice los Discussion Forums Foros de debate http forums oracle com Consulte los tutoriales paso a paso en Oracle By Example Oracle con ejemplos http www oracle com technetwork tutorials index html Obtenci n de ayuda P ngase en contacto con su proveedor de servicios si tiene problemas con la instalaci n o el uso de Oracle Solaris Cluster Proporcione a su proveedor de servicios la informaci n que se especifica a continuaci n El nombre y la direcci n de correo electr nico El nombre la direcci n y el n mero de tel fono de su empresa Los n meros de serie y de modelo de sus sistemas El n mero de versi n del sistema operativo por ejemplo Oracle Solaris 10 El n mero de versi n de Oracle Solaris Cluster por ejemplo Oracle Solaris Cluster 3 3 Use los comandos siguientes para recopilar informaci n sobre su sistema para el proveedor de servicios Comando Funci n prtconf v Muestra el tama o de la memoria del sistema y ofrece informaci n sobre los dispositivos perif ricos psrinfo v Muestra informaci n acerca de los procesadores showrev p Indica los parches instalados SPARC prtdiag v Muestra informaci n de diagn stico del sistema usr cluster bin clnode show rev Muestra l
69. Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario en un nodo de cl ster Lleve a cabo este procedimiento desde la zona global si no hay zonas globales configuradas en el cl ster Consejo Para crear sistemas de archivos con mayor rapidez convi rtase en superusuario en el nodo principal del dispositivo global para el que desea crear un sistema de archivos Cree un sistema de archivos Caution Todos los datos de los discos se destruyen al crear un sistema de archivos Compruebe que haya especificado el nombre del dispositivo de disco correcto Si se especifica un nombre equivocado podr a borrar datos que no tuviera previsto eliminar Para crear un sistema de archivos UFS utilice el comando newfs 1M phys schost newfs raw disk device La tabla siguiente muestra ejemplos de nombres para el argumento dispositivo_disco_b sico Cada administrador de vol menes aplica sus propias convenciones de asignaci n de nombres Administrador de vol menes Nombre de dispositivo de disco de ejemplo Descripci n Solaris Volume Manager dev md nfs rdsk d1 Dispositivo de disco b sico d1 dentro del conjunto de discos nfs Veritas Volume Manager dev vx rdsk oradg vol01 Dispositivo de disco b sico vol01 dentro Ninguno del grupo de discos oradg dev global rdsk d1s3 Dispositivo de disco
70. R1 View MODES ST LE ST Standard A N A Logical T RlInv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE DEVO01 0067 WD 0 0 RW 0067 RW 0 s Synchronized Total were nee were eer we eens oor ee eee MB s 0 0 0 0 0 0 0 0 Legend for MODES M ode of Operation A Async S Sync E Semi sync C Adaptive Copy D omino X Enabled Disabled A daptive Copy D Disk Mode W WP Mode ACp off EJEMPLO 5 17 Visualizaci n de los DID correspondientes a los discos usados El mismo procedimiento es valido para las partes de RDF1 y de RDF2 Observe el campo PdevName de la salida del comando dymdg show dg En la parte de RDF1 escriba symdg show dgl Group Name dgl Group Type RDF1 RDFA Standard STD Devices 1 Sym Cap LdevName PdevName Dev Att Sts MB DEVO01 dev rdsk c5t6006048000018790002353594D303637d0s2 0067 RW 4315 i Device Group RDF Information 120 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento EJEMPLO 5 17 Visualizaci n de los DID correspondientes a los discos usados Continuaci n Para obtener el DID correspondiente escriba scdidadm L grep c5t6006048000018790002353594D303637d0 217 217 pmoney1 dev rdsk c5t6006048000018790002353594D303637d0 dev did rdsk d217 pmoney2 dev rdsk c5t6006048000018790002353594D303637d0 dev did rdsk d2
71. Ready Services CRS en todos los nodos etc init d init crs stop etc init d init crs disable b Desactive el recurso SUNW scalable_rac_server_proxy y los recursos SUNW ScalDevGroup de Oracle Solaris Cluster para evitar que se conecten despu s de un reinicio clrs disable resource_name Detenga todos los vol menes en cada grupo de discos de CVM vxvol g dg name stoppall Deporte los grupos de discos de CVM vxdg deport dg name Cambiar nombre del cl ster cluster rename c new_name Vuelva a arrancar todos los nodos del cl ster Importe el grupo de discos como un grupo de discos compartido vxdg s import dg name Inicie los vol menes en cada grupo de discos vxvol g dg name startall Active e inicie Oracle CRS en todos los nodos etc init d init crs enable etc init d init crs start Active los recursos de Oracle Solaris Cluster que ha desactivado anteriormente clrs enable Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster Ejemplo 9 2 Asignaci n de un ID de nodo a un nombre de nodo Al instalar Oracle Solaris Cluster de forma autom tica se asigna un n mero exclusivo de ID de nodo a todos los nodos El n mero de ID de nodo se asigna a un nodo en el orden en que se une al cl ster por primera vez Una vez asignado no se puede cambiar El n mero de ID de nodo suele usarse en mensajes de
72. Recurso Recurso de aplicaci n de aplicaci n yo _ y Grupo de recursos Grupo de recursos de direcciones de direcciones compartidas compartidas Direcci n Direcci n compartida compartida Vv Vv Grupo de recursos Grupo de recursos de replicaciones de replicaciones Replicaci n por Recurso duplicaci n Recurso HAStoragePlus remota HAStoragePlus ii y Nombre Nombre de host l gico de host l gico Directrices para administrar migraciones tras error Si se produce un error en el cl ster primario la aplicaci n se debe conmutar con el cl ster secundario en cuanto sea posible Para que el cl ster secundario pueda realizar las funciones del principal se debe actualizar el DNS El DNS asocia un cliente con el nombre de host l gico de una aplicaci n Despu s de una migraci n tras error se debe suprimir la asignaci n del DNS al cl ster primario y se debe crear una asignaci n del DNS al cl ster secundario La Figura A 6 muestra c mo se asigna el DNS a un cliente en un cl ster Ap ndice A Ejemplo 383 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 384 FIGURA A 6 Asignaci n del DNS de un cliente a un cl ster DNS gt b4 Internet Direcci n IP para Direcci n IP para el nombre de host l gico el nombre de host l gico del grupo de recursos del grupo de recursos de aplicaciones de apl
73. Solaris Cluster Es la misma especificaci n que utilizan todas las MIB de Sun Management Center Para usar la MIB de Oracle Solaris Cluster consulte las instrucciones para utilizar otras MIB de Sun Management Center en SNMP MIBs for Sun Management Centre Modules en la Sun Management Center 3 6 User s Guide Configuraci n de Oracle Solaris Cluster Manager Oracle Solaris Cluster Manager es una GUI valida para administrar y visualizar el estado de todos los aspectos de los dispositivos de qu rum los grupos de IPMP los componentes de interconexi n y los dispositivos globales La GUI puede utilizarse en lugar de muchos comandos de la interfaz de l nea de comandos de Oracle Solaris Cluster El procedimiento para instalar Oracle Solaris Cluster Manager en el cl ster se explica en Oracle Solaris Cluster Software Installation Guide La ayuda en l nea de Oracle Solaris Cluster Manager proporciona instrucciones para realizar varias tareas con la GUL Esta secci n contiene los procedimientos siguientes para volver a configurar Oracle Solaris Cluster Manager tras la instalaci n inicial Configuraci n de funciones de RBAC en la p gina 367 Cambio de la direcci n del servidor para Oracle Solaris Cluster Manager en la p gina 369 Regeneraci n de las claves de seguridad de Common Agent Container en la p gina 369 Configuraci n de funciones de RBAC Oracle Solaris Cluster Manager utiliza RBAC para determinar qui n
74. Solaris Cluster que cree Solaris Volume Manager Veritas Volume Manager ZFS o disco b sico debe ser id ntico al del grupo de dispositivos replicado Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos conectados a la matriz de almacenamiento Agregue la entrada horcmal archivo etc services horcm 9970 udp Asigne un n mero de puerto y un nombre de protocolo a la nueva entrada Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Especifique la informaci n de configuraci n del grupo de dispositivos de Hitachi TrueCopy en el archivo etc horcm conf Si desea obtener instrucciones consulte la documentaci n incluida con el software de TrueCopy Inicie el daemon CCI de TrueCopy Para ello ejecute el comando horcmstart sh en todos los nodos usr bin horcmstart sh Si a n no ha creado los pares de r plicas h galo ahora Use el comando paircreate para crear los pares de r plicas con el nivel de protecci n que desee Para obtener instrucciones sobre c mo crear los pares de r plicas consulte la documentaci n de TrueCopy Con el comando pairdisplay compruebe que la replicaci n de datos se haya configurado correctamente en todos los nodos configurados Un grupo de dispositivos de Hitachi TrueCopy o Hitachi Universal Replicator c
75. Status sparse sczone schost 1 sczone 1 Online Running schost 2 sczone 2 Online Running schost 3 sczone 3 Online Running schost 4 sczone 4 Online Running phys schost phys schost clzonecluster halt n schost 4 sparse sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster sparse sczone Sep 5 19 24 00 schost 4 cl_runtime NOTICE Membership Node 3 of cluster sparse sczone died phys host phys host clzonecluster status Zone Clusters Zone Cluster Status Name Node Name Zone HostName Status Zone Status sparse sczone schost 1 sczone 1 Online Running schost 2 sczone 2 Online Running schost 3 sczone 3 Offline Installed schost 4 sczone 4 Online Running phys schost V asetambi n Consulte Arranque de un nodo en la p gina 77 para ver c mo reiniciar un nodo del cl ster global que se haya cerrado v Arranque de un nodo Si desea cerrar o reiniciar otros nodos activos del cl ster global o del cl ster de zona espere a que aparezca en l nea el estado gu a de servidor multiusuario para el nodo que est iniciando Cap tulo 3 Cierre y arranque de un cl ster 77 Cierre y arranque de un solo nodo de un cl ster De lo contrario el nodo no estar disponible para hacerse cargo de los servicios de otros nodos del cl ster que se cierren o rearranquen Si desea obtener informaci n sobre c mo iniciar una zona no global consulte el Capitulo 20 Como instalar i
76. U S Government customers are commercial computer software or commercial technical data pursuant to the applicable Federal Acquisition Regulation and agency specific supplemental regulations As such the use duplication disclosure modification and adaptation shall be subject to the restrictions and license terms set forth in the applicable Government contract and to the extent applicable by the terms of the Government contract the additional rights set forth in FAR 52 227 19 Commercial Computer Software License December 2007 Oracle America Inc 500 Oracle Parkway Redwood City CA 94065 Este software o hardware se ha desarrollado para uso general en diversas aplicaciones de gesti n de la informaci n No se ha dise ado ni est destinado para utilizarse en aplicaciones de riesgo inherente incluidas las aplicaciones que pueden causar da os personales Si utiliza este software o hardware en aplicaciones de riesgo usted ser responsable de tomar todas las medidas apropiadas de prevenci n de fallos copia de seguridad redundancia o de cualquier otro tipo para garantizar la seguridad en el uso de este software o hardware Oracle Corporation y sus subsidiarias declinan toda responsabilidad derivada de los da os causados por el uso de este software o hardware en aplicaciones de riesgo Oracle y Java son marcas comerciales registradas de Oracle y o sus subsidiarias Todos los dem s nombres pueden ser marcas comerciales de sus respectivos pr
77. acceso a la red puede utilizar netcon en modo exclusivo mediante la opci n f Tambi n puede escribir durante una sesi n normal de netcon Cualquiera de estas dos soluciones brinda la opci n de alternar a la interfaz serie si no se puede tener acceso a la red Oracle Solaris Cluster no necesita una consola de administraci n dedicada pero emplearla aporta las ventajas siguientes Permite administrar el cl ster de manera centralizada agrupando en un mismo equipo herramientas de administraci n y de consola Ofrece soluciones potencialmente m s r pidas mediante servicios empresariales o del proveedor de servicios Copia de seguridad del cl ster Realice copias de seguridad del cl ster de forma peri dica Aunque el software Oracle Solaris Cluster ofrece un entorno de alta disponibilidad con copias duplicadas de los datos en los dispositivos de almacenamiento el software Oracle Solaris Cluster no sirve como sustituto de las copias de seguridad realizadas a intervalos peri dicos Una configuraci n de Oracle Solaris Cluster puede sobrevivir a multitud de errores pero no ofrece protecci n frente a los errores de los usuarios o del programa ni un error fatal del sistema Por lo tanto debe disponer de un procedimiento de copia de seguridad para contar con protecci n frente a posibles p rdidas de datos Se recomienda que la informaci n forme parte de la copia de seguridad Todas las particiones del sistema de archivos
78. acepta operaciones de reconfiguraci n din mica que repercutan en la disponibilidad de los dispositivos de qu rum Si desea obtener m s informaci n consulte Reconfiguraci n din mica con dispositivos de qu rum en la p gina 195 Precauci n Si el nodo primario actual falla durante la operaci n de reconfiguraci n din mica dicho error repercute en la disponibilidad del cl ster El nodo primario no podr migrar tras error hasta que se proporcione un nuevo nodo secundario Para realizar operaciones de reconfiguraci n din mica en dispositivos globales aplique los pasos siguientes en el orden que se indica TABLA 5 1 Mapa de tareas reconfiguraci n din mica con dispositivos de disco y cinta Tarea Instrucciones 1 Si en el nodo primario actual debe Conmutaci n al nodo primario de un grupo de dispositivos realizarse una operaci n de en la p gina 169 reconfiguraci n din mica que afecta a un grupo de dispositivos activo conmutar los nodos primario y secundario antes de ejecutar la operaci n en el dispositivo 2 Efectuar la operaci n de eliminaci n de Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual DR en el dispositivo que se va a eliminar de la recopilaci n de Solaris 10 on Sun Hardware Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 99 cl ster Informaci n general sobre la administraci n de dispositivos globales y el
79. address 0 0 0 0 2 Si el valor de par metro no es 0 0 0 0 cambie el valor del par metro cacaoadm stop Cacaoadm set param network bind address 0 0 0 0 cacaoadm start Cap tulo 13 Administraci n de Oracle Solaris Cluster con las interfaces gr ficas de usuario 373 374 AP NDICE A Ejemplo Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Este es una alternativa a la replicaci n basada en host que no utiliza Oracle Solaris Cluster Cluster Geographic Edition Oracle recomienda el uso de Oracle Solaris Cluster Geographic Edition para la replicaci n basada en host con el fin de simplificar la configuraci n y el funcionamiento de la replicaci n basada en host en un cl ster Consulte Comprensi n de la replicaci n de datos en la p gina 90 El ejemplo de este muestra c mo configurar una replicaci n de datos basada en host entre cl steres con el software Sun StorageTek Availability Suite 4 0 El ejemplo muestra una configuraci n de cl ster completa para una aplicaci n NFS que proporciona informaci n detallada sobre c mo realizar tareas individuales Todas las tareas deben llevarse a cabo en el nodo de votaci n de cl ster global El ejemplo no incluye todos los pasos necesarios para otras aplicaciones ni las configuraciones de otros cl sters Si utiliza el control de acceso basado en funciones RBAC en lugar de ser superusuario para acceder a
80. admite el protocolo SCSI o si desea permitir el acceso al almacenamiento del cl ster desde hosts situados fuera de dicho cl ster Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento Ejemplo 5 42 Convi rtase en superusuario o asuma una funci n que cuente con autorizaci n RBAC solaris cluster modify Establezca el protocolo de protecci n del dispositivo de almacenamiento cldevice set p default_fencing pathcount scsi3 global nofencing nofencing noscrub device p default_fencing Modifica la propiedad default_fencing del dispositivo pathcount Determina el protocolo de protecci n mediante el n mero de rutas de DID conectadas al dispositivo compartido scsi3 Usa el protocolo SCSI 3 global Usa la configuraci n de protecci n predeterminada global La configuraci n global se utiliza con los dispositivos que no son de qu rum Desactiva la protecci n con la configuraci n del estado de protecci n para la instancia de DID especificada nofencing noscrub Al limpiar y el dispositivo se garantiza que ste est libre de todo tipo de informaci n de reserva de SCSI persistente y se permite que sistemas situados fuera del cl ster tengan acceso al almacenamiento Use la opci n nofencing noscrub s lo con dispositivos de almacenamiento con problemas graves con las reservas de SCSI
81. any node in the cluster Start the utility clsetup Select Cluster interconnect Select either Remove a transport cable Remove a transport adapter to a node or Remove a transport switch Answer the questions when prompted You Will Need Information Example node names phys schost 1 adapter names qfel switch names hub1 Verify that the clinterconnect command was completed successfully Command completed successfully Quit the clsetup utility Cluster Interconnect Menu and Main Menu Verify that the cable adapter or switch is removed clinterconnect show phys schost 1 qfe2 hub2 Transport Cables Transport Cable Cable Endpoint1 Cable Endpoint2 Cable State phys schost 2 qfe2 0 hub2 phys schost 2 qfe0 d ethernet 1 2 Should this be hub2 Enabled clinterconnect show phys schost 1 qfe2 Transport Adepters for qfe2 Transport Adapter Adapter State Adapter Transport Type Adapter Property device name Adapter Property device instance Adapter Property lazy free Adapter Property dlpi heartbeat_timeout Adpater Property dlpi heartbeat_ quantum Adapter Property nw_ bandwidth Adapter Property bandwidth Adapter Property ip_address Adapter Property netmask Adapter Port Names Adapter Port STate Q clinterconnect show phys schost 1 hub2 Transport Switches Transport Switch Switch State qfe2 Enabled dlpi ce 0 1 10000 1
82. archivos individuales de forma interactiva archivos de forma interactiva Solaris Volume Manager en la p gina 350 Para Solaris Volume Manager restaurar el Restauraci n del sistema de archivos root Solaris Volume sistema de archivos root Manager en la p gina 350 C mo restaurar un sistema de archivos ra z que se encontraba en un volumen de Solaris Volume Manager en la p gina 353 Para Veritas Volume Manager restaurar Restauraci n de un sistema de archivos root no encapsulado un sistema de archivos root Veritas Volume Manager en la p gina 358 Para Veritas Volume Manager restaurar Restauraci n de un sistema de archivos root encapsulado un sistema de archivos root encapsulado Veritas Volume Manager en la p gina 360 Restauracion de archivos individuales de forma interactiva Solaris Volume Manager Siga este procedimiento para restaurar al menos un archivo individual Asegurese de que el cl ster se est ejecutando sin errores antes de llevar a cabo el proceso de restauraci n Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster admin en el nodo del cl ster que vaya a restaurar Detenga todos los servicios de datos que usen los archivos que va a restaurar clresourcegroup offline resource group Restaure los archivos ufsrestore Restauracion del sistema de archivos root Solaris Volume Manager
83. blica P gina de comando man if_mpadm 1M Parte VI IPMP de Gu a de administraci n del sistema servicios IP P gina de comando man ifconfig 1M Parte VI IPMP de Gu a de administraci n del sistema servicios IP Sun Enterprise 10000 DR Configuration Guide y Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual de la recopilaci n Solaris 10 on Sun hardware Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 245 246 CAP TULO 8 Adici n y eliminaci n de un nodo Este cap tulo proporciona instrucciones sobre c mo agregar o eliminar un nodo de un cl ster Adici n de nodos a un cl ster en la p gina 247 Eliminaci n de nodos de un cl ster en la p gina 253 Para obtener informaci n acerca de las tareas de mantenimiento del cl ster consulte el Cap tulo 9 Administraci n del cl ster Adici n de nodos a un cl ster Esta secci n describe c mo agregar un nodo a un cl ster global o a un cl ster de zona Puede crear un nuevo nodo del cl ster de zona sobre un nodo del cl ster global que aloje como host el cl ster de zona siempre y cuando el nodo del cl ster global no aloje ya un nodo de ese cl ster de zona en concreto No es posible convertir en un nodo de cl ster de zona un nodo sin votaci n ya existente y que reside en un cl ster global Especificar una direcci n IP y un NIC para cada nodo de cl ster de zona es opciona
84. campus use TrueCopy de forma sincr nica La repetici n s ncrona basada en almacenamiento con SRDF de EMC es compatible con Oracle Solaris Cluster la repetici n as ncrona no se admite para SRDF de EMC No use los modos Domino ni Adaptive Copy de EMC SRDF El modo Domino hace que los vol menes de SRDF locales y de destino no est n disponibles para el sistema cuando el destino no est disponible El modo Adaptive Copy se suele usar para migrar datos y desplazar centros de datos pero no se recomienda para la recuperaci n de datos en caso de problema grave Si se pierde el contacto con el dispositivo de almacenamiento remoto aseg rese de que una aplicaci n que se est ejecutando en el cl ster principal no est bloqueada especificando un Cap tulo 4 M todos de replicaci n de datos 93 Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster 94 fence_level de never o async Si especifica un Fence_level de data o status el dispositivo de almacenamiento principal rechaza las actualizaciones si stas no pueden copiarse en el dispositivo de almacenamiento remoto Requisitos y restricciones al usar replicaci n de datos basada en almacenamiento dentro de un cl ster Para asegurar la integridad de los datos use m ltiples rutas y el paquete adecuado de RAID La lista siguiente incluye consideraciones sobre c mo implementar una configuraci n de cl ster que utilice replicaci n de datos basada en almacenami
85. cl ster global que no sea de votaci n Siga los procedimientos descritos en la documentaci n de Solaris a Realice los procedimientos descritos en Cap tulo 18 Planificaci n y configuraci n de zonas no globales tareas de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris b Realice los procedimientos descritos en la secci n Instalaci n e inicio de zonas de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris c Realice los procedimientos descritos en la secci n C mo iniciar una zona de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris Aseg rese de que la zona presente el estado ready listo phys schost zoneadm list v ID NAME STATUS PATH global running 1 my zone ready zone path Cap tulo8 Adici n y eliminaci n de un nodo 251 Adici n de nodos a un cl ster 5 Opcional En una zona de direcciones IP compartidas asigne una direcci n IP privada y un nombre de host privado a la zona El siguiente comando permite seleccionar y asignar una direcci n IP disponible del intervalo de direcciones IP privadas del cl ster Tambi n permite asignar el nombre de host privado o alias de host especificado a la zona y a la direcci n IP privada indicada phys schost clnode s
86. cldevicegroup set p localonly false dsk d4 Verify that the localonly flag is disabled phys schost 1 cldevicegroup show n phys schost 2 t rawdisk dsk d4 Device group type Disk dsk d8 Device group type Local_Disk Remove the node from all raw disk device groups phys schost 1 cldevicegroup remove node n phys schost 2 dsk d4 phys schost 1 cldevicegroup remove node n phys schost 2 dsk d2 phys schost 1 cldevicegroup remove node n phys schost 2 dsk d1 v Cambio de propiedades de los grupos de dispositivos El m todo para establecer la propiedad primaria de un grupo de dispositivos se basa en el establecimiento de un atributo de preferencia de propiedad denominado preferenced Si el atributo no est definido el propietario primario de un grupo de dispositivos que no est sujeto 162 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Antes de empezar a ninguna otra relaci n de propiedad es el primer nodo que intente acceder a un disco de dicho grupo Sin embargo si este atributo est definido debe especificar el orden de preferencia en el cual los nodos intentan establecer la propiedad Si inhabilita el atributo preferenced el atributo failback tambi n se inhabilita autom ticamente Sin embargo si intenta habilitar o volver a habilitar el atributo preferenced debe elegir entre habilitar o inhabilitar el atributo failback Si
87. clresourcetype register SUNW HAStoragePlus Cree un grupo de recursos de aplicaciones para el grupo de dispositivos devgrp nodeA clresourcegroup create Y p Pathprefix global etc Y p Auto_start_on_new_cluster False p RG_dependencies devgrp stor rg nfs rg Pathprefix global etc Especifica el directorio en el que los recursos del grupo pueden guardar los archivos de administracion Auto_start_on_new_cluster False Especifica que el grupo de recursos de aplicaciones no se inicie de forma automatica RG_dependencies devgrp stor rg Especifica el grupo de recursos del que depende el grupo de recursos de aplicaciones En este ejemplo el grupo de recursos de aplicaciones depende del grupo de recursos de replicaciones devgrp stor rg Ap ndiceA Ejemplo 397 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 398 Si el grupo de recursos de aplicaciones se conmuta a un nodo primario nuevo el grupo de recursos de replicaciones se conmuta autom ticamente Sin embargo si el grupo de recursos de replicaciones se conmuta a un nodo primario nuevo el grupo de recursos de aplicaciones se debe conmutar de forma manual nfs rg El nombre del grupo de recursos de aplicaciones Agregue un recurso de SUNW HAStoragePlus al grupo de recursos de aplicaciones nodeA clresource create g nfs rg Y t SUNW HAStoragePlus Y p FileSystemMountPoints global mountpoint p AffinityOn
88. clsetup Los requisitos para agregar un nodo a un grupo de dispositivos de VxVM son Se cuenta con privilegios de superusuario en un nodo del cl ster Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 157 cl ster Administraci n de grupos de dispositivos 158 Ejemplo 5 28 El nombre del grupo de dispositivos de VxVM al que se vaya a agregar el nodo Elnombre o ID de nodo de los nodos que se vayan a agregar phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster modify en cualquier nodo del cl ster Inicie la utilidad clsetup clsetup Aparece el ment principal Para trabajar con grupos de dispositivos de VxVM escriba el n mero correspondiente a la opci n de los grupos de dispositivos y los vol menes Se muestra el men Grupos de dispositivos Para agregar un nodo a un grupo de dispositivos de VxVM escriba el n mero correspondiente a la opci n de agregar un nodo a un grupo de dispositivos de VxVM Siga las instrucciones y escriba los no
89. cluster sparse sczone joined Status Online Zone Status Running Running Running Running Ejemplo3 6 SPARC Rearranque de un cl ster global El ejemplo siguiente muestra la salida de la consola al detenerse el funcionamiento normal del cluster global todos los nodos se cierran y muestran el indicador ok y se reinicia el cluster global La opci n g 0 establece el per odo de gracia en cero la opci n y proporciona una respuesta yes autom tica para la pregunta de confirmaci n Los mensajes de cierre tambi n aparecen en las consolas de otros nodos del cl ster global phys schost cluster shutdown g0 y Wed Mar 10 13 47 32 phys schost 1 cl_runtime WARNING CMM monitoring disabled phys schost 1 INIT New run level 0 The system is coming down The system is down Please wait syncing file systems done Program terminated ok boot Rebooting with command boot Hostname phys schost 1 Booting as part of a cluster NOTICE Node phys schost 1 attempting to join cluster NOTICE Node phys schost 2 incarnation 937690106 has become reachable NOTICE Node phys schost 3 incarnation 937690290 has become reachable NOTICE cluster has reached quorum 72 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Cierre y arranque de un solo nodo de un cl ster NOTICE Cluster members phys schost 1 phys schost 2 phys schost 3 NOTICE Node phys schost 1 join
90. coincida con su hardware prtdiag 0 Cards Bus Max IO Port Bus Freq Bus Dev Type ID Side Slot MHz Freq Func State Name Model XYZ 8 B 2 33 33 2 0 ok xyz11c8 0 xyz11c8g8 d665 11c8 0 0 XYZ 8 B 3 33 33 3 0 ok xyz11c8 0 xyz11c8g8 d665 11c8 0 0 Con la ruta del adaptador busque el n mero de instancia del adaptador La pantalla siguiente es un ejemplo y tal vez no coincida con su hardware grep sci etc path_to_inst xyz 1f 400 pcillc8 0 2 0 ttt xyz 1f 4000 pcillc8 0 4 ttt Mediante el nombre y el n mero de ranura del adaptador busque su n mero de instancia La pantalla siguiente es un ejemplo y tal vez no coincida con su hardware prtconf xyz instance 0 xyz11c8 0 instance 0 xyz11c8 0 instance 1 Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 239 Administraci n de interconexiones de cl sters 240 Vv Antes de empezar Modificaci n de la direcci n de red privada o del intervalo de direcciones de un cl ster Siga este procedimiento para modificar una direcci n de red privada un intervalo de direcciones de red o ambas cosas Compruebe que est habilitado el acceso de shell remoto rsh 1M o de shell seguro ssh 1 en todos los nodos de cl ster para superusuario Rearranque todos los nodos de cl ster en un modo que no sea de cl ster Para ello aplique los subpasos siguientes en cada nodo del cl ster
91. comandos los comandos son id nticos Antes de aplicar el parche visite el sitio web del producto de Oracle Solaris Cluster y compruebe si hay instrucciones especiales sobre preinstalaci n o postinstalaci n Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster admin en el nodo en el que va a aplicar el parche Enumere los grupos de recursos y dispositivos del nodo al que va aplicar el parche clresourcegroup status Z all n nodel nodo El nombre del nodo del cl ster global o el nodo del cl ster de zona que reside en el nodo al que se est aplicando el parche cldevicegroup status n node nodo El nombre del nodo del cl ster global al que se est aplicando el parche Nota Los grupos de dispositivos no est n asociados a un cl ster de zona Conmute todos los grupos de recursos recursos y grupos de dispositivos del nodo al que se va a aplicar el parche a otros miembros del cl ster global clnode evacuate n node evacuate Evacua todos los grupos de dispositivos y de recursos incluidos todos los nodos sin votacion de cluster global n nodo Especifica el nodo desde el que esta conmutando los grupos de recursos y de dispositivos Cierre el nodo shutdown g0 y i0 Arranque el nodo en un modo monousuario que no sea de cl ster En los sistemas basados en SPARC ejecute el comando siguiente ok boot sx Fn los sistemas basados en x86
92. comprobaci n espec fica c Si hay peligro de que la comprobaci n funcional que desea efectuar interrumpa el funcionamiento del cl ster aseg rese de que el cl ster no est en producci n d Inicie la comprobaci n funcional cluster check v k functional C checkid o outputdir k functional Especifica comprobaciones de validaci n funcionales en ejecuci n Responda a las peticiones de la comprobaci n para confirmar la ejecuci n de la comprobaci n y para cualquier informaci n o acciones que deba realizar e Repita el Paso c y el Paso d para cada comprobaci n funcional que quede por ejecutar Nota para fines de registro especifique un nico nombre de subdirectorio dir_salida para cada comprobaci n que se ejecuta Si vuelve a utilizar un nombre dir_salida la salida para la nueva comprobaci n sobrescribe el contenido existente del subdirectorio dir_salida reutilizado Compruebe la configuraci n del cl ster de zona para ver si es posible instalar un cl ster de zona phys schost clzonecluster verify zoneclustername Grabe la configuraci n del cl ster para poder realizar tareas de diagn stico en el futuro Consulte C mo registrar los datos de diagn stico de la configuraci n del cl ster de Oracle Solaris Cluster Software Installation Guide Comprobaci n de la configuraci n del cl ster global con resultado correcto en todas las comprobaciones b sicas El ejemplo siguiente muestra c mo la ejecuc
93. con Hitachi TrueCopy Tarea Instrucciones Instalar el software de TrueCopy en los nodos y Consulte la documentaci n proporcionada con el dispositivos de almacenamiento dispositivo de almacenamiento Hitachi Configurar el grupo de replicaciones de Hitachi Configuraci n de un grupo de replicaciones de Hitachi TrueCopy en la p gina 102 Configurar el dispositivo de DID Configuraci n de dispositivos de DID para replicaci n mediante Hitachi TrueCopy en la p gina 104 Registrar el grupo replicado Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la p gina 136 o Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 Comprobar la configuraci n Comprobaci n de la configuraci n de un grupo de dispositivos globales replicado con Hitachi TrueCopy en la p gina 106 Configuraci n de un grupo de replicaciones de Hitachi TrueCopy En primer lugar configure los grupos de dispositivos de Hitachi TrueCopy en discos compartidos del cl ster primario La informaci n sobre la configuraci n se especifica en el archivo etc horcm conf en cada uno de los nodos del cl ster que tenga acceso a la matriz de Hitachi Si desea m s informaci n sobre c mo configurar el archivo etc horcm conf consulte Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide Precauci n El nombre del grupo de dispositivos de Oracle
94. convertirse en miembros del cl ster Si tiene un cl ster de zona puede arrancar el cl ster de zona completo phys schost clzonecluster boot zoneclustername Si tiene m s de un cl ster de zona puede arrancar todos los clusters de zona Use en lugar de nombre_cl ster_zona 2 Compruebe que los nodos se hayan arrancado sin errores y que est n en linea El comando de estado cluster 1CL informa sobre el estado de los nodos del cl ster global phys schost cluster status t node Al ejecutar el comando de estado clzonecluster 1CL desde un nodo del cl ster global este comando informa sobre el estado del nodo del cl ster de zona phys schost clzonecluster status Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Descripci n general sobre el cierre y el arranque de un cl ster Ejemplo 3 4 Nota Si el sistema de archivos var de un sistema alcanza su l mite de capacidad es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo Si surge este problema consulte Reparaci n de un sistema de archivos var que haya alcanzado el l mite de capacidad en la p gina 87 SPARC Arranque de un cl ster global El ejemplo siguiente muestra la salida de la consola al arrancarse el nodo phys schost 1 en el cl ster global Aparecen mensajes similares en las consolas de los otros nodos del cl ster global Si la propiedad de arranque autom tico de un cl ster de zona se
95. de Quorum Summary tambi n debe mostrar un aumento en el n mero de votos phys schost 2 clquorum reset Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster En los sistemas basados en SPARC ejecute el comando siguiente ok boot En los sistemas basados en x86 ejecute los comandos siguientes Cuando aparezca el men GRUB seleccione la entrada de Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line phys schost 1 clquorum status Quorum Votes Summary Needed Present Possible 4 6 6 Quorum Votes by Node Node Name Present Possible Status phys schost 2 1 1 Online phys schost 3 1 1 Online Quorum Votes by Device Device Name Present Possible Status dev did rdsk d3s2 1 1 Online dev did rdsk d17s2 0 1 Online 1 1 Online dev did rdsk d31s2 Desinstalacion del software Oracle Solaris Cluster desde un nodo del cluster Aplique este procedimiento para desinstalar el software Oracle Solaris Cluster desde un nodo del cl ster global antes de desconectarlo de una configuraci n del cl s
96. de almacenamiento del cl ster cluster set p global_fencing prefer3 Modificaci n del protocolo de protecci n en un solo dispositivo de almacenamiento El protocolo de protecci n puede configurarse tambi n para un solo dispositivo de almacenamiento Nota Para cambiar la configuraci n de protecci n predeterminada de un dispositivo de qu rum anule la configuraci n del dispositivo modifique la configuraci n de protecci n y vuelva a configurar el dispositivo de qu rum Si piensa desactivar y activar regularmente la protecci n de dispositivos entre los que figuran los de qu rum considere la posibilidad de configurar el qu rum a trav s de un servicio de servidor de qu rum y as eliminar las interrupciones en el funcionamiento del qu rum phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Precauci n Si la protecci n se desactiva en un momento inadecuado sus datos pueden ser vulnerables y sufrir da os durante la migraci n tras error de una aplicaci n Si se plantea desactivar la protecci n tenga muy en cuenta la posibilidad de sufrir da os en los datos La protecci n puede desactivarse si el dispositivo de almacenamiento compartido no
97. de aplicaciones para replicaci n de datos 391 392 nivel_de_aislamiento Ver durante la replicaci n nodos agregar 247 253 agregar a grupos de dispositivos 157 aplicar un parche de reinicio a un cl ster global 321 arrancar 73 87 autenticaci n 267 buscar ID 267 cambiar nombres en un cl ster de zona 277 cambiar nombres en un cl ster global 277 cerrar 73 87 conectar a 25 configurar l mites de carga 294 295 eliminar mensajes de error 261 262 eliminar de grupos de dispositivos 142 159 eliminar de un cl ster de zona 254 eliminar nodos de un cl ster global 255 eliminar nodos sin votaci n de un cl ster global 258 poner en estado de mantenimiento 279 primarios 98 100 162 secundarios 162 nodos de cl ster global Continuaci n cerrar 73 87 reiniciar 80 83 nodos de votaci n de cl ster global administrar sistema de archivos de cl ster 125 recursos compartidos de CPU 309 nodos sin votaci n de cl ster global agregar nombre de host privado 275 aplicar parches 324 cambiar nombre de host privado 275 cerrar y rearrancar 73 nombre de host privado eliminar 277 recursos compartidos de CPU 311 314 nodos sin votaci n de cl steres globales administraci n 18 nodos sin votaci n del cl ster global administrar sistema de archivos de cl ster 125 nombres de host privados asignar a zonas 252 cambiar 272 cambiar en nodos sin votaci n de cl ster global 275 eliminar nodos sin votaci n de cl
98. de configuraci n sobre el cl ster global Si tiene configurado un cl ster de zona tambi n se enumera la pertinente informaci n phys schost cluster show Cluster Cluster Name cluster 1 installmode disabled heartbeat_timeout 10000 heartbeat_quantum 1000 private netaddr 172 16 0 0 private netmask 255 255 248 0 max_nodes 64 max_privatenets 10 global_fencing Unknown Node List Node Zones Host Access Control phys schost 1 phys schost 2 za Cluster name clustser 1 Allowed hosts phys schost 1 phys schost 2 za Authentication Protocol sys Cluster Nodes Node Name phys schost 1 Node ID 1 Type cluster Enabled yes privatehostname clusternodel priv reboot_on path failure disabled globalzoneshares 3 defaultpsetmin 1 quorum vote 1 quorum_defaultvote 1 quorum_resv_key 0x43CB1E1800000001 Transport Adapter List qfe3 hmed Transport Adapters for phys schost 1 Transport Adapter qfe3 Adapter State Enabled Adapter Transport Type dlpi Adapter Property device name qfe Adapter Property device instance 3 Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster 37 Procedimiento para empezar a administrar el cl ster Adapter Property lazy free Adapter Property dlpi _ heartbeat_timeout Adapter Property dlpi_heartbeat_quantum Adapter Property nw_ bandwidth Adapter Property bandwidth Adapter Property ip_address Adapter Property netmask Ada
99. de nombre 380 crear 394 395 direcci n compartida 382 replicaci n de datos Continuaci n habilitar 402 404 hardware y software necesarios 386 instant nea de un momento determinado 377 406 407 presentaci n 376 sincr nica 377 replicaci n de datos asincr nica 93 377 replicaci n de datos basada en almacenamiento 92 96 definici n 90 pr cticas recomendadas 96 recuperaci n 95 requisitos 94 y dispositivos de qu rum 95 replicaci n de datos basada en host definici n 90 ejemplo 375 412 replicaci n de datos sincr nica 93 377 replicaci n por duplicaci n remota Ver replicaci n basada en almacenamiento definici n 376 restaurar archivos de forma interactiva 350 archivos del cl ster 349 sistema de archivos ra z desde el metadispositivo 353 desde el volumen 353 sistema de archivos ra z encapsulados 360 sistema de archivos root 350 sistema de archivos root no encapsulado 358 ruta de disco anular supervisi n 187 188 resolver error de estado 188 189 supervisar 97 192 imprimir rutas de disco err neas 188 ruta de zona mover 295 rutas de disco compartido habilitar rearranque autom tico 191 192 inhabilitar reinicio autom tico 192 supervisar 184 192 S SATA 198 422 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A ndice secundarios establecer n mero 164 n mero predeterminado 162 servicio de nombres a adir asignaciones de direcci
100. de proceso punto_montaje Especifica el nombre del sistema de archivos del cl ster para el que desea detener procesos Detenga todos los procesos del sistema de archivos de cl ster en cada uno de los nodos Use el m todo que prefiera para detener los procesos Si conviene utilice el comando siguiente para forzar la conclusi n de los procesos asociados con el sistema de archivos de cl ster fuser c k mountpoint Se env a un SIGKILL a cada proceso que usa el sistema de archivos de cl ster Compruebe en todos los nodos que no haya ning n proceso que est usando el sistema de archivos fuser c mountpoint Desmonte el sistema de archivos desde un solo nodo umount mountpoint punto_montaje Especifica el nombre del sistema de archivos del cl ster que desea desmontar Puede ser el nombre del directorio en el que est montado el sistema de archivos de cl ster o la ruta del nombre del dispositivo del sistema de archivos Opcional Edite el archivo etc vfstab para eliminar la entrada del sistema de archivos de cl ster que se va a eliminar Realice este paso en cada nodo del cl ster que tenga una entrada de este sistema de archivos de cl ster en el archivo etc vfstab Opcional Quite el dispositivo de disco group metadevice volume plex Para obtener m s informaci n consulte la documentaci n del administrador de vol menes Eliminaci n de un sistema de archivos de cl ster En el ejemplo siguiente se quit
101. del cl ster oncciccioninioninnncensercrmcess 32 Y Comprobaci n del estado de la red publica usersranariacasararienanesaracanrssii 35 W Visualizaci n de la configuraci n del cl ster cooionininnninnnnnnnncinnnncnn racer crac 36 Y Validaci n de una configuraci n b sica de cl ster ooccoinniioninnninnnonnn ceca 45 Y Comprobaci n de los puntos de montaje globales oonnininnininninnmmesereress 50 W Visualizaci n del contenido de los registros de comandos de Oracle Solaris Cluster 52 Contenido 2 Oracle Solaris Cluster y RBAC 00 0 0 cessssssseescseeeesesesueseseeeseeesesesneaeeesseaesnsueansucaeeesseatanenseeeseases 55 Instalaci n y uso de RBAC con Oracle Solaris Cluster ccscsssesseesseesseesesseesseessesseesenssesneesseeaee 55 Perfiles de derechos de RBAC en Oracle Solaris Cluster c ccsessessssseseeseseseeseeeeseeneeseseeneeseeeaenes 56 Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster ti iii 57 Y Creaci n de una funci n con la herramienta Administrative Roles ooncinicicononinnnmem mm 57 Y Creaci n de una funci n desde la l nea de comandos sessssssessessectesesnecncetentsneetentsneetentens 59 Modificaci n de las propiedades de RBAC de un usuario coccncncccccnninnoncnncnnoncnncnnoncancan coronan cononrancnnos 61 VW Modificaci n de las propiedades de RBAC de un usuario con la herramienta User ACCOUNTS dida 61 Y Modificaci
102. denominado phys schost 1 del grupo de dispositivos dg1 de VxVM Determine the VxVM device group for the node cldevicegroup show dgl Device Groups Device Group Name dgl Type VXVM failback no Node List phys schost 1 phys schost 2 preferenced no numsecondaries 1 diskgroup names dgl Become superuser and start the clsetup utility clsetup Select Device groups and volumes gt Remove a node from a VxVM device group Answer the questions when prompted You will need the following information Name Example VxVM device group name dgl node names phys schost 1 Verify that the cldevicegroup command executed properly cldevicegroup remove node n phys schost 1 dgl Command completed successfully Dismiss the clsetup Device Groups Menu and Main Menu Verify that the node was removed cldevicegroup show dgl Device Groups Device Group Name dgl Type VXVM failback no Node List phys schost 2 preferenced no numsecondaries 1 device names dgl Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 30 Eliminaci n de un nodo de un grupo de dispositivos de discos b sicos Siga este procedimiento para eliminar un nodo de cl ster de la lista de nodos primarios potenciales de un grupo de dispositivos de discos b sicos phys schost refleja un indicador de cl ster global Siga este procedi
103. dev global rdsk d4s2 usr sbin fmthard s etc lvwm d8 vtoc dev global rdsk d8s2 Este comando se puede ejecutar en cualquier nodo Compruebe la sintaxis en el archivo etc lvm md tab existente para cada metadispositivo usr sbin metainit s setname n a metadevice Cree cada metadispositivo a partir de una configuraci n guardada usr sbin metainit s setname a metadevice Si ya existe un sistema de archivos en el metadispositivo ejecute el comando fsck usr sbin fsck n dev md setname rdsk metadevice Si el comando fsck s lo muestra algunos errores como el recuento de superbloqueos probablemente el dispositivo se haya reconstruido de forma correcta A continuaci n puede ejecutar el comando fsck sin la opci n n Si surgen varios errores compruebe si el metadispositivo se ha reconstruido correctamente En caso afirmativo revise los errores del comando fsck para determinar si se puede recuperar el sistema de archivos Si no se puede recuperar deber restablecer los datos a partir de una copia de seguridad Concatene el resto de metaconjuntos en todos los nodos del cl ster con el archivo etc lvm md tab y a continuaci n concatene el conjunto de discos local usr sbin metastat p gt gt etc lvm md tab Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 10 Configuraci n del control del uso de la CPU Si desea controlar el uso de la CPU
104. devgrp vol04 ip sync Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes Vv Antes de empezar 1 Cuando se escribe el volumen de datos en el disco se actualiza el archivo de mapa de bits en el mismo disco No se produce ninguna replicacion Sincronice el volumen sombra del cl ster primario con el volumen maestro del cl ster primario Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin iiadm u s dev vx rdsk devgrp vol02 nodeA usr sbin iiadm w dev vx rdsk devgrp vol02 Sincronice el volumen sombra del cl ster secundario con el volumen maestro del cl ster secundario Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeC usr sbin iiadm u s dev vx rdsk devgrp vol02 nodeC usr sbin iiadm w dev vx rdsk devgrp vol02 Reinicie la aplicaci n en el nodo nodeA nodeA clresource enable n nodeA nfs rs Vuelva a sincronizar el volumen secundario con el volumen principal Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n u lhost reprg prim Y dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 ip sync Vaya a Procedimiento para comprobar la confi
105. device dev vx dsk diskgroup bkup vol Elimine el volumen temporal vxedit rf rm bkup vol Registre los cambios en la configuraci n del grupo de discos cldevicegroup sync diskgroup Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Copia de seguridad de un cl ster Ejemplo 12 5 Copias de seguridad en linea para los vol menes Veritas Volume Manager En el ejemplo siguiente el nodo del cl ster phys schost 2 es el propietario principal del grupo de dispositivos schost 1 De modo que el proceso de copia de seguridad se realiza desde phys schost 2 El volumen vo101 se copia y a continuaci n se asocia con un volumen nuevo bkup vol Become superuser or assume a role that provides solaris cluster admin RBAC authorization on the primary node Identify the current primary node for the device group cldevicegroup status Device Group Servers Device Group Primary Device group servers rmt 1 Device group servers schost 1 phys schost 2 Device Group Status Device Group Status Device group status rmt 1 Offline Device group status schost 1 Online List the device group information vxprint g schost 1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE dg schost 1 schost 1 dm schost 101 c1t1d0s2 17678493 dm schost 102 c1t2d0s2 17678493 dm schost 103 c2t1d0s2 8378640 dm schost 104 c2t2d0s2 17678493 dm schost 105 c1t3d0s2 17
106. dispositivos El nombre del grupo de dispositivos coincide con el del conjunto de discos que se especifica con metaset phys schost 1 cldevicegroup list v devicegroup Eliminaci n de un nodo de un grupo de dispositivos Solaris Volume Manager En el ejemplo siguiente se muestra c mo se elimina el nombre de host phys schost 2 de la configuraci n de un grupo de dispositivos En este ejemplo se elimina phys schost 2 como nodo primario potencial del grupo de dispositivos designado Compruebe la eliminaci n del nodo para ello ejecute el comando cldevicegroup show Compruebe que el nodo eliminado ya no aparezca en el texto de la pantalla Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Determine the Solaris Volume Manager device group for the node cldevicegroup show dg schost 1 Device Groups Device Group Name dg schost 1 Type SVM failback no Node List phys schost 1 phys schost 2 preferenced yes numsecondaries 1 diskset name dg schost 1 Determine which node is the current primary for the device group cldevicegroup status dg schost 1 Cluster Device Groups Device Group Status Device Group Name Primary Secondary Status dg schost 1 phys schost 1 phys schost 2 Online Become superuser on the node that currently owns the device group Remove the host name from the device group metase
107. dispositivos replicados basados en almacenamiento El ejemplo siguiente muestra la salida obtenida al combinar instancias de DID ejecutando el comando en el nodo 1 EJEMPLO 5 11 Combinaci n de instancias de DID cldevice replicate D node 3 Remapping instances for devices replicated with node 3 VG01 pairl L node 1 dev rdsk c6t500060E8000000000000EEBA0000001Dd0 VG01 pairl R node 3 dev rdsk c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node 1 dev rdsk c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node 3 dev rdsk c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node 1 dev rdsk c6t500060E8000000000000EEBAQ000001Fd0 VG01 pair3 R node 3 dev rdsk c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22 Al comprobar la salida de cldevice list los LUN de ambos sitios tienen la misma instancia de DID Al tener la misma instancia de DID cada par de r plicas parece un nico dispositivo de DID como se muestra en el ejemplo siguiente EJEMPLO 5 12 Visualizaci n de DID combinados cldevice list DID Device Full D ay evice Path dev rdsk cotod0 dev did rdsk d1 dev rdsk cot6d0 dev did rdsk d2 dev rdsk c6t500060E8000000000000EEBA00000020d0 dev did rdsk d11 dev rdsk c5t500060E8000000000000EEBA00000020d0 dev did rdsk d11 dev rdsk cotod0 dev did rdsk d18 dev rdsk cot6d0 dev did rdsk d19 dev rdsk c5t50060E800000000000004E
108. ejecute los comandos siguientes Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster phys schost shutdown g y i0 Press any key to continue a Enel men de GRUB utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener mas informacion sobre el arranque basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration b En la pantalla de los par metros de arranque utilice las teclas de flecha para seleccionar la entrada de n cleo y escriba e para editarla La pantalla de los par metros de arranque de GRUB que aparece es similar a la siguiente GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a comma
109. el atributo preferenced se habilita o inhabilita se solicitar que reestablecer el orden de los nodos en la lista de preferencias de propiedades primarias Este procedimiento emplea el comando cl setup para establecer o anular la definici n de los atributos preferenced y failback para los grupos de dispositivos de Solaris Volume Manager o VxVM Para llevar a cabo este procedimiento necesita el nombre del grupo de dispositivos para el cual est cambiando valores de atributos phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster modify en cualquier nodo del cl ster Inicie la utilidad clsetup clsetup Aparece el men principal Para trabajar con grupos de dispositivos escriba el n mero correspondiente a la opci n de los grupos de dispositivos y los vol menes Se muestra el men Grupos de dispositivos Para modificar las propiedades esenciales de un grupo de dispositivos escriba el n mero correspondiente a la opci n de modificar las propiedades esenciales de un grupo de dispositivos de VxVM o Solaris Volume Manager
110. el grupo de discos se est reparando en otro nodo Para obtener instrucciones sobre c mo restaurar un conjunto de discos da ado consulte Restauraci n de un conjunto de discos da ado en la p gina 303 Nota Antes de poder colocar un grupo de dispositivos en estado de mantenimiento deben detenerse todos los accesos a sus dispositivos y desmontarse todos los sistemas de archivos dependientes phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Ponga el grupo de dispositivos en estado de mantenimiento a Sielgrupo de dispositivos est habilitado inhabil telo cldevicegroup disable devicegroup Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 38 b Ponga fuera de l nea el grupo de dispositivos cldevicegroup offline devicegroup Si el procedimiento de reparaci n que se efect a requiere la propiedad de un conjunto o un grupo de discos importe manualmente ese conjunto o grupo de discos En Solaris Volume Manager metaset C take f s diskset Precauci n Si va a asumir la propiedad de un conjunto de discos de Solaris Volume Mana
111. el nodo que se va a eliminar cldevicegroup remove node n nodename devicegroup Eliminaci n de un nodo de un grupo de dispositivos b sicos En este ejemplo se muestra c mo eliminar un nodo phys schost 2 de un grupo de dispositivos de discos b sicos Todos los comandos se ejecutan desde otro nodo del cl ster phys schost 1 Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 161 cl ster Administraci n de grupos de dispositivos Identify the device groups connected to the node being removed and determine which are raw disk device groups phys schost 1 cldevicegroup show n phys schost 2 t rawdisk v Device Group Name dsk d4 Type Disk failback false Node List phys schost 2 preferenced false localonly false autogen true numsecondaries 1 device names phys schost 2 Device Group Name dsk d2 Type VxVM failback true Node List pbrave2 preferenced false localonly false autogen true numsecondaries 1 diskgroup name vxdgl Device Group Name dsk dl Type SVM failback false Node List pbravel pbrave2 preferenced true localonly false autogen true numsecondaries 1 diskset name msl dsk d4 Device group node list phys schost 2 dsk d2 Device group node list phys schost 1 phys schost 2 dsk d1 Device group node list phys schost 1 phys schost 2 Disable the localonly flag for each local disk on the node phys schost 1
112. el nodo sin votaci n asume el valor de zone cpu shares de la configuraci n de la zona Este par metro tiene un valor predeterminado de 1 Para obtener m s informaci n sobre la configuraci n de zonas consulte la p gina de comando man zonecfg 1M Nota No elimine ni modifique el proyecto SCSLM_nombre_grupo_recursos Puede agregar m s control de recursos de forma manual al proyecto por ejemplo configurando la propiedad project max lwps Para obtener m s informaci n consulte la p gina de comando man projmod 1M Control del uso de la CPU en un nodo sin votaci n de cl ster global con un conjunto de procesadores dedicado Siga este procedimiento si desea que el grupo de recursos se ejecute en un conjunto de procesadores dedicado Si un grupo de recursos se configura para ejecutarse en un conjunto de procesadores dedicado el software Oracle Solaris Cluster realiza las tareas siguientes al iniciar un recurso del grupo en un nodo sin votaci n de cl ster global Crea una agrupaci n denominada SCSLM_pool_nombre_zona si todav a no se ha hecho Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n del control de la CPU Crea un conjunto de procesadores dedicado El tama o del conjunto de procesadores se determina mediante las propiedades RG_SLM_CPU_SHARES y RG_SLM_PSET_MIN Asocia la agrupaci n SCSLM_pool_nombre_zona con el conjunto de procesadores creado Vin
113. el nombre de usuario para las conexiones remotas Si la opci n l no est indicada se utiliza el nombre del usuario que ejecut la utilidad cconsole p puerto_ssh Indica el n mero de puerto que se usa para el shell seguro Si no se indica la opci n p de forma predeterminada se utiliza el puerto n mero 22 para las conexiones seguras Obtenci n de acceso a las utilidades de configuraci n del cl ster La utilidad clsetup permite configurar de forma interactiva el qu rum los grupos de recursos el transporte del cl ster los nombres de host privados los grupos de dispositivos y las nuevas Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 27 Procedimiento para empezar a administrar el cl ster 28 V ase tambi n opciones de nodos del cl ster global La utilidad clzonecluster realiza tareas de configuraci n similares para los cl sters de zona Si desea m s informaci n consulte las p ginas de comando man clsetup 1CL y clzonecluster 1CL phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario de un nodo de miembro activo en un cl ster global Siga todos los pasos de este procedim
114. el parche no se debe detener primero Antes de aplicar el parche visite la p gina web del producto de Oracle Solaris Cluster y compruebe si hay instrucciones especiales sobre preinstalaci n o postinstalaci n Aplique el parche en un solo nodo patchadd M patch dir patch id dir_parche Especifica la ubicaci n del directorio del parche id_parche Especifica el n mero de parche de un parche concreto Compruebe que el parche se haya instalado correctamente showrev p grep patch id Compruebe que funcione el parche y que el nodo y el cl ster funcionen correctamente Repita del Paso 2 al Paso 4 con todos los dem s nodos del cl ster Compruebe si debe confirmar el software del parche con el comando scversions usr cluster bin scversions Aparece uno de los resultados siguientes Upgrade commit is needed Upgrade commit is NOT needed All versions match Si se necesita confirmaci n confirme el software del parche scversions c Nota Al ejecutar scversions al menos hay una reconfiguraci n de CMM depende de la situaci n Aplicaci n de un parche de Oracle Solaris Cluster que no sea de rearranque patchadd M tmp patches 234567 05 showrev p grep 234567 05 scversions Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster V ase tambi n 2 Upgrade commit is needed scversions c Si n
115. en el indicador ok de la PROM OpenBoot ok boot cdrom s Siesta usando un servidor JumpStart de Solaris escriba el comando siguiente en el indicador ok de la PROM OpenBoot ok boot net s Cree todas las particiones e intercambie el disco root mediante el comando format Vuelva a crear el esquema de partici n original que estaba en el disco defectuoso Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster 10 Ejemplo 12 8 Cree el sistema de archivos root y los pertinentes sistemas de archivos con el comando newfs Vuelva a crear los sistemas de archivos originales que estaban en el disco defectuoso Nota Compruebe que se cree el sistema de archivos global devices node nodeid Monte el sistema de archivos root en un punto de montaje temporal mount device temp mountpoint Restaure el sistema de archivos root desde la copia de seguridad desmonte y compruebe el sistema cd temp mountpoint ufsrestore rvf dump device rm restoresymtable cd umount temp mountpoint fsck raw disk device El sistema de archivos ya est restaurado Instale un bloque de arranque nuevo en el disco nuevo usr sbin installboot usr platform uname i lib fs ufs bootblk raw disk device Rearranque el nodo en modo multiusuario reboot Actualice el ID del dispositivo cldevice repair dev rdsk disk device
116. error para identificar el nodo del cl ster al que hace referencia el mensaje Siga este procedimiento para determinar la asignaci n entre los ID y los nombres de los nodos Para visualizar la informaci n sobre la configuraci n para un cl ster global o de zona no hace falta ser superusuario Un paso de este procedimiento se realiza desde un nodo de cl ster global El otro paso se efect a desde un nodo de cl ster de zona Use el comando clnode 1CL para mostrar la informaci n sobre configuraci n del cl ster para el cl ster global phys schost clnode show grep Node Tambi n puede mostrar los ID de nodo para un cl ster de zona El nodo de cl ster de zona tiene el mismo ID que el nodo de cl ster global donde se ejecuta phys schost zlogin sczone clnode v grep Node Asignaci n de ID del nodo al nombre del nodo El ejemplo siguiente muestra las asignaciones de ID de nodo para un cl ster global phys schost clnode show grep Node Cluster Nodes Node Name phys schost1 Node ID 1 Node Name phys schost2 Node ID 2 Node Name phys schost3 Node ID 3 Uso de la autenticacion del nodo del cluster nuevo Oracle Solaris Cluster permite determinar si se pueden agregar nodos nuevos al cluster global y el tipo de autenticaci n que puede utilizar Puede permitir que cualquier nodo nuevo se una al cl ster por la red p blica denegar que los nodos nuevos se unan al cl ster o indicar que un nodo en particular se u
117. establece en t rue el sistema arranca el nodo del cl ster de zona de forma autom tica tras haber arrancado el nodo del cl ster global en ese equipo Al rearrancarse un nodo del cl ster global todos los nodos de cl ster de zona presentes en ese equipo se detienen Todos los nodos de cl ster de zona de ese equipo con la propiedad de arranque autom tico establecida en true se arrancan tras volver a arrancarse el nodo del cl ster global ok boot Rebooting with command boot Hostname phys schost 1 Booting as part of a cluster NOTICE Node phys schost 1 with votecount 1 added NOTICE Node phys schost 2 with votecount 1 added NOTICE Node phys schost 3 with votecount 1 added NOTICE Node phys schost 1 attempting to join cluster NOTICE Node phys schost 2 incarnation 937690106 has become reachable NOTICE Node phys schost 3 incarnation 937690290 has become reachable NOTICE cluster has reached quorum NOTICE node phys schost 1 is up new incarnation number 937846227 NOTICE node phys schost 2 is up new incarnation number 937690106 NOTICE node phys schost 3 is up new incarnation number 937690290 NOTICE Cluster members phys schost 1 phys schost 2 phys schost 3 Rearranque de un cl ster Para cerrar un cl ster global ejecute el comando cluster shutdown y luego arranque el cl ster global aplicando el comando boot en todos los nodos Para cerrar un cl ster de zona use el comando clzonecluster
118. evacuate nodel shutdown g0 y i6 Si es necesario conmute todos los grupos de recursos y de dispositivos para devolverlos al nodo original Si los grupos de recursos y de dispositivos estaban configurados para conmutar al nodo primario en caso de error este paso es innecesario cldevicegroup switch n node devicegroup clresourcegroup switch z zone n node resourcegroup nodo El nombre del nodo zona El nombre del nodo sin votaci n nodo que puede controlar el grupo de recursos Indique la zona s lo si ha especificado un nodo sin votaci n al crear el grupo de Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos 6 recursos Registre el grupo de discos de VxVM como grupo de dispositivos de Oracle Solaris Cluster Consulte Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 No registre los grupos de discos compartidos de Oracle RAC con la estructura de cl ster Si la opci n mount at boot se establece en no en el Paso 2 vu lvala a establecer en yes Adici n de un volumen nuevo a un grupo de dispositivos ya creado Veritas Volume Manager Al agregar un nuevo volumen a un grupo de dispositivos de fmv82 existente realice el procedimiento desde el nodo primario del grupo de dispositivos en l nea Nota Despu s de agregar el volumen debe registrar la modificaci n
119. failed clnode global mountl is still configured as a global mount clnode global mount1 is still configured as a global mount clnode global dgl is still configured as a global mount clnode It is not safe to uninstall with these outstanding errors clnode Refer to the documentation for complete uninstall instructions clnode Uninstall failed Para corregir este error vuelva a Desinstalaci n del software Oracle Solaris Cluster desde un nodo del cluster en la pagina 283 y repita el procedimiento Compruebe que haya realizado correctamente el Paso 7 del procedimiento antes de volver a ejecutar el comando clnode remove No supresion de la lista de grupos de dispositivos Los mensajes de error siguientes indican que el nodo que ha eliminado todavia esta en la lista con un grupo de dispositivos Verifying that no device services still reference this node failed clnode This node is still configured to host device service service clnode This node is still configured to host device service service2 clnode This node is still configured to host device service service3 clnode This node is still configured to host device service Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster del clnode It is not safe to uninstall with these outstanding errors clnode Refer to the documentation for complete unins
120. fsck point type pass at boot options dev dsk c1d0s2 dev rdsk c1d0s2 usr ufs 1 yes f dev fd fd no proc proc proc no dev dsk c1t6d0s1 swap no dev dsk c1t6d0s0 dev rdsk cl1t6d0s0 ufs 1 no dev dsk c1t6d0s3 dev rdsk c1t6d0s3 cache ufs 2 yes swap tmp tmpfs yes Determinaci n del n mero de cintas necesarias para una copia de seguridad completa Siga este procedimiento para calcular el n mero de cintas que necesita para realizar la copia de seguridad de un sistema de archivos Convi rtase en superusuario o asuma una funci n equivalente en el nodo del cl ster del que est haciendo la copia de seguridad Calcule el tama o de la copia de seguridad en bytes ufsdump S filesystem Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Copia de seguridad de un cl ster Ejemplo 12 2 Muestra el c lculo del n mero de bytes que se necesitan para realizar la copia de seguridad sistema_archivos Especifica el nombre del sistema de archivos del que desea hacer una copia de seguridad Divida el tama o estimado por la capacidad de la cinta para saber la cantidad de cintas que necesita Determinaci n el n mero de cintas que se necesitan En el ejemplo siguiente el tama o del sistema de archivos de 905 881 620 bytes cabe f cilmente en una cinta de 4 Gigabytes 905 881 620 4 000 000 000 ufsdump S global phys schost 1 905881620 Copias de
121. gico El sistema DNS se utiliza para asociar el nombre de host l gico a un cl ster Debe haber un recurso de HAStoragePlus El recurso de HAStoragePlus fuerza la migraci n tras error del grupo de dispositivos si el grupo de recursos de replicaciones se conmuta o migra tras error Oracle Solaris Cluster tambi n fuerza la migraci n tras error del grupo de recursos de replicaciones si el grupo de dispositivos se conmuta De este modo es siempre el mismo nodo el que sit a o controla el grupo de recursos de replicaciones y el de dispositivos Las propiedades de extensi n siguientes se deben definir en el recurso de XHAStoragePlus GlobalDevicePaths La propiedad de esta extensi n define el grupo de dispositivos al que pertenece un volumen AffinityOn property True La propiedad de esta extensi n provoca que el grupo de dispositivos se conmute o migre tras error si el grupo de recursos de replicaciones tambi n lo hace Esta funci n se denomina conmutaci n de afinidad ZPoolsSearchDir La propiedad de esta extensi n es necesaria para utilizar el sistema de archivos ZFS Para obtener mas informacion sobre HAStoragePlus consulte la pagina de comando man SUNW HAStoragePlus 5 Recibir el nombre del grupo de dispositivos con el que se coloca seguido de stor rg Por ejemplo devgrp stor rg Estar en l nea en el cl ster primario y en el secundario Configuraci n de grupos de recursos de aplicaciones Para que est
122. group name nnombre_nodo El nodo al que se conmuta el grupo de dispositivos Este nodo se convierte en el nuevo nodo primario Compruebe que la conmutaci n haya sido correcta Para ello compare la salida de los comandos siguientes symdg show group name cldevicegroup status n nodename group name Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 117 cl ster Administraci n de dispositivos replicados basados en almacenamiento 118 Ejemplo configurar un grupo de replicaciones de SRDF para Oracle Solaris Cluster Este ejemplo muestra c mo efectuar los pasos de Oracle Solaris Cluster que necesarios para configurar la replicaci n con SRDF en el cl ster En el ejemplo se supone que ya se han realizado las tareas siguientes Se ha completado el emparejamiento de los LUN para la replicaci n entre matrices Se ha instalado el software de SRDF en el dispositivo de almacenamiento y los nodos del cl ster Este ejemplo aparece un cl ster de cuatro nodos dos de ellos est n conectados a un dispositivo de Symmetrix y los otros dos est n conectados a un segundo dispositivo de Symmetrix El grupo de dispositivos de SRDF se denomina dg1 EJEMPLO 5 15 Creaci n de pares de r plicas Ejecute los comandos siguientes en todos los nodos symcfg discover This operation might take up to a few minutes symdev list pd Symmetrix 1D 000187990182 Device Name D
123. grupo de dispositivos elimine el volumen de VxVM en el grupo de discos vxedit g diskgroup rf rm volume g grupo_discos Especifica el grupo de discos de VxVM que contiene el volumen rf rm volumen Elimina el volumen indicado La opci n r convierte la operaci n en recursiva La opci n f es necesaria para eliminar un volumen habilitado Con la utilidad clsetup registre las modificaciones en la configuraci n del grupo de dispositivos para actualizar el espacio de nombre global Consulte Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager en la p gina 152 Eliminaci n y anulaci n del registro de un grupo de dispositivos Veritas Volume Manager Eliminar un grupo de dispositivos de Oracle Solaris Cluster hace que el grupo de discos de VxVM correspondiente se exporte en lugar de destruirse Sin embargo aunque el grupo de discos de VxVM siga existiendo no se puede utilizar en el cl ster a menos que se vuelva a registrar Este procedimiento emplea la utilidad clsetup para eliminar un grupo de discos de VxVM y anular su registro como grupo de dispositivos de Oracle Solaris Cluster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 27 Este procedimiento proporciona las formas lar
124. grupo de dispositivos de Solaris Volume Manager En el ejemplo siguiente se muestra la creaci n del conjunto de discos y el grupo de dispositivos con las unidades de disco dev did rdsk d1 y dev did rdsk d2 asimismo se comprueba que se haya creado el grupo de dispositivos metaset s dg schost 1 a h phys schost 1 cldevicegroup list dg schost 1 metaset s dg schost 1 a dev did rdsk d1 dev did rdsk d2 Adicion y registro de un grupo de dispositivos disco basico El software Oracle Solaris Cluster admite el uso de grupos de dispositivos de discos basicos y otros administradores de vol menes Al configurar Oracle Solaris Cluster los grupos de dispositivos se configuran autom ticamente para cada dispositivo b sico del cl ster Utilice este procedimiento para reconfigurar autom ticamente estos grupos de dispositivos creados a fin de usarlos con el software Sun Oracle Solaris Cluster Puede crear un grupo de dispositivos de disco b sico por los siguientes motivos Desea agregar m s de un DID al grupo de dispositivos Necesita cambiar el nombre del grupo de dispositivos Desea crear una lista de grupos de dispositivos sin utilizar la opci n v del comando cldg Precauci n Si crea un grupo de dispositivos en dispositivos replicados el nombre del grupo de dispositivos que crea Solaris Volume Manager Veritas Volume Manager o disco b sico debe ser id ntico al del grupo de dispositivos replicado Guia de adminis
125. i86pc multiboot x module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu Escriba b para arrancar el nodo en un modo que no sea de cl ster Este cambio en el comando del par metro de arranque del n cleo no se conserva tras arrancar el sistema La pr xima vez que rearranque el nodo lo har en modo de cl ster Para arrancarlo en un modo que no sea de cl ster realice estos pasos para agregar la opci n x al comando del par metro de arranque del n cleo Nota Si el nodo que se vaya a eliminar no est disponible o ya no se puede arrancar ejecute el comando siguiente en cualquier nodo del cl ster activo clnode clear F lt nodo_que_eliminar gt Verifique la eliminaci n del nodo mediante la ejecuci n de clnode status lt nombre_nodo gt Desde el nodo que desea eliminar quite el nodo del cl ster phys schost clnode remove F Si el comando clnode remove no funciona correctamente y existe una referencia de nodo caducada ejecute clnode clear F nombre_nodo en un nodo activo Nota Si va a eliminar el ltimo nodo del cl ster ste debe establecerse en un modo que no sea de cl ster de forma que no quede ning n nodo activo en el cl
126. la supervisi n de los recursos del sistema cluster 1CL Administra la configuraci n y el estado global de la configuraci n de Oracle Solaris Cluster clvxvm 1CL Inicia Veritas Volume Manager VxVM en un nodo de Oracle Solaris Cluster y de forma opcional realiza una encapsulaci n del disco ra z clzonecluster 1CL Crea y modifica un cl ster de zona Adem s puede utilizar comandos para administrar la porci n del administrador de vol menes de una configuraci n de Oracle Solaris Cluster Estos comandos dependen del administrador de vol menes que utilice el cl ster ya sea Veritas Volume Manager o Solaris Volume Manager Preparaci n para administrar el cl ster 22 En esta secci n se explica c mo prepararse para administrar el cl ster Documentaci n de las configuraciones de hardware de Oracle Solaris Cluster Documente los aspectos del hardware que sean nicos de su sitio a medida que se escala la configuraci n de Oracle Solaris Cluster Para reducir la administraci n consulte la documentaci n del hardware al modificar o actualizar el cl ster Otra forma de facilitar la administraci n es etiquetar los cables y las conexiones entre los diversos componentes del cl ster Guardar un registro de la configuraci n original del cl ster y de los cambios posteriores reduce el tiempo que necesitan otros proveedores de servicios a la hora de realizar tareas de mantenimiento del cl ster Uso de la consola de adminis
127. las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en el nodo que va a eliminar de todos los grupos de dispositivos en calidad de nodo primario potencial Determine el grupo o los grupos de dispositivos donde el nodo que se va a eliminar figure como miembro Busque el nombre del nodo en la Lista de nodos del grupo de dispositivos en cada uno de los dispositivos cldevicegroup list v Si alguno de los grupos de dispositivos identificados en el Paso 2 pertenece al tipo de grupo de dispositivos SVM siga los pasos descritos en Eliminaci n de un nodo de un grupo de dispositivos Solaris Volume Manager en la p gina 143 para todos los grupos de dispositivos de dicho tipo Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Si alguno de los grupos de dispositivos identificados en el Paso 2 pertenece al tipo de grupo de dispositivos VxWM siga los pasos descritos en Eliminaci n de un nodo de un grupo de dispositivos Veritas Volume Manager en la p gina 159 para todos los grupos de dispositivos de dicho tipo Determine los grupos de discos de dispositivos b sicos de los cuales el nod
128. los indicadores para agregar el nombre del nodo al cl ster Se le solicita el nombre del nodo que se va a agregar Verifique que la tarea se haya realizado correctamente La utilidad cl setup imprime un mensaje del tipo Comando finalizado correctamente si consigue concluir la tarea sin errores Para impedir que se agreguen equipos nuevos al cl ster escriba el n mero correspondiente a la opci n que ordena al cl ster que omita las solicitudes para agregar m s equipos Pulse la tecla Intro Siga los indicadores de clsetup Esta opci n indica al cl ster que omita todas las solicitudes llegadas a trav s de la red p blica procedentes de cualquier equipo nuevo que intente agregarse a s mismo al cl ster Cierre la utilidad clsetup Para agregar manualmente un nodo a un cl ster de zona debe especificar el host de Oracle Solaris y el nombre del nodo virtual Tambi n debe especificar un recurso de red que se utilizar Cap tulo8 Adici n y eliminaci n de un nodo 249 Adici n de nodos a un cl ster 250 10 Ejemplo 8 1 V ase tambi n para la comunicaci n con red p blica en cada nodo En el ejemplo siguiente el nombre de zona es sczone y bge0 es el adaptador de red p blica en ambos equipos clzc sczone gt add node clzc sczone node gt set physical host phys cluster 1 clzc sczone node gt set hostname hostnamel clzc sczone node gt add net clzc sczone node net gt set address hostnamel clzc sczone node net g
129. mapa de bits Volumen de mapa de bits de un instante determinado N Az de un instante determinado Las diferencias entre el volumen primario y el volumen sombra se controlan en el volumen de mapa de bits de un instante determinado Volumen 4 Replicaci n en la configuraci n de ejemplo La Figura A 3 ilustra la forma en que se usan la replicaci n por duplicaci n remota y la instant nea de un momento determinado en este ejemplo de configuraci n 378 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite FIGURA A 3 Replicaci n en la configuraci n de ejemplo Disco principal Disco secundario T o T duplicaci n remota Volumen P Volumen p a primario g Ne primario p Volumen Volumen sombra ES a A sombra Replicaci n de un instante Volumen de mapa de bits determinado Volumen de mapa de bits de un instante determinado de un instante determinado Volumen de mapa de bits Volumen de mapa de bits por duplicaci n remota por duplicaci n remota T T Directrices para la configuraci n de replicaci n de datos basada en host entre cl sters Esta secci n proporciona directrices para la configuraci n de replicaci n de datos entre cl sters Asimismo se proporcionan consejos para configurar los grupos de recursos de replicaciones y los de recursos de aplic
130. max q writes 4194304 max q fbas 16384 mode sync ctag devgrp state logging En modo de registro el estado es Logging y el estado activo de la sincronizaci n autom tica es off Cuando se escribe el volumen de datos en el disco se actualiza el archivo de mapa de bits en el mismo disco Purgue todas las transacciones nodeA lockfs a f Repita los pasos del Paso 1 al Paso 3 en el nodo nodeC Copie el volumen principal del nodo nodeA en el volumen principal del nodo nodeC Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n m lhost reprg prim dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Ap ndice A Ejemplo 405 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes 406 v Antes de empezar 1 Espere hasta que la termine replicaci n y los vol menes se sincronicen Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n w lhost reprg prim dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Confirme que el cl ster est en modo de replicaci n Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm P La sali
131. mero de nodos secundarios que se van a configurar para el grupo de dispositivos El comando cldevicegroup correspondiente se ejecuta a continuaci n se imprime un registro y la utilidad vuelve al men anterior Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 165 cl ster Administraci n de grupos de dispositivos Ejemplo 5 32 166 Valide la configuraci n del grupo de dispositivos cldevicegroup show dg schost 1 Device Groups Device Group Name dg schost 1 Type VxVm This might also be SDS or Local_Disk failback yes Node List phys schost 1 phys schost 2 phys schost 3 preferenced yes numsecondaries 1 diskgroup names dg schost 1 Nota Si modifica informaci n de configuraci n de un grupo de discos o un volumen de VxVM registrado en el cl ster debe volver a registrar el grupo de dispositivos con clsetup Entre dichas modificaciones de la configuraci n est n agregar o eliminar vol menes as como modificar el grupo el propietario o los permisos de los vol menes Volver a registrar registro despu s de modificar la configuraci n asegura que el espacio de nombre global se mantenga en el estado correcto Consulte Actualizaci n del espacio de nombre de dispositivos globales en la p gina 130 Compruebe que se haya modificado el atributo del grupo de dispositivos Busque la informaci n del grupo de dispositivos mostrada por el comando sig
132. n mero menor que no entre en conflicto con un n mero menor utilizado por otro grupo de dispositivos Si configura un grupo de dispositivos replicado establezca la propiedad de replicaci n para el grupo de dispositivos cldevicegroup sync devicegroup Compruebe que el grupo de dispositivos est registrado y en l nea Si el grupo de dispositivos est registrado correctamente la informaci n del nuevo grupo de dispositivos se muestra al usar el comando siguiente cldevicegroup status devicegroup Nota Si modifica informaci n de configuraci n de un grupo de discos o un volumen de VxVM registrado en el cl ster debe sincronizar el grupo de dispositivos con clsetup Entre dichas modificaciones de la configuraci n est n agregar o eliminar vol menes as como modificar el grupo el propietario o los permisos de los vol menes Volver a registrar registro despu s de modificar la configuraci n asegura que el espacio de nombre global se mantenga en el estado correcto Consulte Actualizaci n del espacio de nombre de dispositivos globales en la p gina 130 Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 151 cl ster Administraci n de grupos de dispositivos 152 Ejemplo 5 25 V ase tambi n Registro de un grupo de dispositivos de Veritas Volume Manager El ejemplo siguiente muestra el comando cldevicegroup generado por clsetup cuando registra u
133. n configurados La plantilla predeterminada est preconfigurada con 16 nodos En general el archivo ntp conf cluster es el mismo en todos los nodos del cl ster b Compruebe que pueda realizar un ping correctamente en el nombre de host privado desde todos los nodos del cl ster c Reinicie el daemon de NTP Efect e este paso en todos los nodos del cl ster Utilice el comando svcadm para reiniciar el daemon de NTP svcadm enable ntp 8 Habilite todos los recursos de servicio de datos y otras aplicaciones inhabilitados en el Paso 1 phys schost clresource enable resource Para obtener informaci n sobre el uso del comando clresource consulte la pagina de comando man clresource 1CL y Oracle Solaris Cluster Data Services Planning and Administration Guide Ejemplo9 8 Cambio del nombre de host privado El ejemplo siguiente cambia el nombre de host privado de clusternode2 priva clusternode4 priv en el nodo phys schost 2 Disable all applications and data services as necessary phys schost 1 etc init d xntpd stop phys schost 1 clnode show grep node private hostname clusternodel priv private hostname clusternode2 priv private hostname clusternode3 priv phys schost 1 clsetup phys schost 1 nscd i hosts phys schost 1 vi etc inet ntp conf peer clusternodel priv peer clusternode4 priv peer clusternode3 priv phys schost 1 ping clusternode4 priv phys schost 1 etc init d xntpd start Enable
134. n de un dispositivo de qu rum en la p gina 208 Agregar un dispositivo de qu rum implica reconfigurar el nodo que afecta al dispositivo de qu rum que ha fallado y genera una situaci n de error grave en el equipo La opci n Forzar permite quitar el dispositivo de qu rum que ha fallado sin generar una situaci n de error grave en el equipo El comando clquorum 1CL permite quitar el dispositivo de la configuraci n Despu s de quitar el dispositivo de qu rum que ha fallado puede agregar un nuevo dispositivo con el comando clquorum add Consulte Adici n de un dispositivo de qu rum en la p gina 196 phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Cap tulo6 Administraci n de qu rum 209 Administraci n de dispositivos de qu rum Ejemplo 6 6 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Quite el dispositivo de qu rum con el comando cl quorun Si el dispositivo de qu rum ha fallado use la opci n Forzar F para eliminar el dispositivo que ha fallado clquorum remove F qdl Nota Tambi n puede situar el nodo que se va a elim
135. n de problemas graves consulte Oracle Solaris Cluster Geographic Edition Overview Este cap tulo incluye las secciones siguientes Comprensi n de la replicaci n de datos en la p gina 90 Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster en la p gina 92 89 Comprensi n de la replicaci n de datos Comprensi n de la replicaci n de datos Oracle Solaris Cluster admite los m todos de replicaci n de datos siguientes La replicaci n de datos basada en host usa el software para replicar en tiempo real vol menes de discos entre cl sters ubicados en puntos geogr ficos distintos La replicaci n por duplicaci n remota permite replicar los datos del volumen maestro del cl ster primario en el volumen maestro del cl ster secundario separado geogr ficamente Un mapa de bits de duplicaci n remota controla las diferencias entre el volumen maestro del disco primario y el del secundario Un ejemplo de software de replicaci n basada en host que se usa para la replicaci n entre cl steres y entre un cl ster y un host que no se encuentre en el cl ster es Sun StorageTek Availability Suite 4 La replicaci n de datos basada en host es una soluci n de replicaci n m s econ mica porque usa recursos del host en lugar de matrices de almacenamiento especiales No se admiten las bases de datos las aplicaciones ni los sistemas de archivos configurados para permitir que varios hosts ejecuten el sis
136. n de qu rum y el disco ya no proporciona un voto de qu rum al cl ster Una vez que un disco est en una agrupaci n de almacenamiento ya se puede configurar como dispositivo de qu rum Tambi n se puede anular la configuraci n del disco agregarlo a la agrupaci n de almacenamiento y luego volverlo a configurar como dispositivo de qu rum El software Oracle Solaris Cluster admite los tipos de dispositivos de qu rum siguientes LUN compartidos desde Disco de SCSI compartido Almacenamiento SATA Serial Attached Technology Attachment NAS de Sun Sun ZFS Storage Appliance de Oracle Oracle Solaris Cluster Quorum Server NAS de Network Appliance En las secciones siguientes se presentan procedimientos para agregar estos dispositivos Adicion de un dispositivo de qu rum de disco compartido en la pagina 197 Adici n de un dispositivo de qu rum de almacenamiento conectado a NAS de Network Appliance en la p gina 201 Adici n de un dispositivo de qu rum de servidor de qu rum en la p gina 204 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum Nota Los discos replicados no se pueden configurar como dispositivos de qu rum Si se intenta agregar un disco replicado como dispositivo de qu rum se recibe el mensaje de error siguiente el comando detiene su ejecuci n y genera un c digo de error Disk name i
137. n de quitar de un nodo el adaptador de transporte Siga las instrucciones y escriba la informaci n que se solicite Debe saber cu les son los nombres v lidos de nodos adaptadores y conmutadores Nota Si va a quitar de un nodo un adaptador consulte Oracle Solaris Cluster 3 3 Hardware Administration Manual para ver los procedimientos de tareas de mantenimiento de hardware Escriba el n mero correspondiente a la opci n de quitar un conmutador de transporte Siga las instrucciones y escriba la informaci n que se solicite Debe saber cu les son los nombres v lidos de nodos adaptadores y conmutadores Nota No es posible eliminar un conmutador si alguno de los puertos se sigue usando como extremo de alg n cable de transporte Compruebe que se haya quitado el cable adaptador o conmutador clinterconnect show node adapter adapternode clinterconnect show node adapter clinterconnect show node switch Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexiones de cl sters Ejemplo 7 3 El cable o adaptador de transporte eliminado del nodo correspondiente no debe aparecer en la salida de este comando Eliminaci n de un cable de transporte un adaptador de transporte o un conmutador de transporte En el ejemplo siguiente se muestra c mo quitar un cable un adaptador o un conmutador de transporte mediante el comando clsetup Become superuser on
138. n sobre el servidor de qu rum En todos los cl sters donde el servidor de qu rum se configur como dispositivo de qu rum este comando muestra el nombre del cl ster correspondiente el ID de cl ster la lista de claves de reserva y una lista con las claves de registro Visualizaci n de informaci n sobre el servidor de qu rum Convi rtase en superusuario del host donde desee visualizar la informaci n del servidor de qu rum Los usuarios de las dem s categor as necesitan autorizaci n de RBAC solaris cluster read Si desea obtener m s informaci n sobre los perfiles de derechos de RBAC consulte la p gina de comando man rbac 5 Visualice la informaci n de configuraci n del dispositivo de qu rum mediante el comando clquorumserver usr cluster bin clquorumserver show quorumserver servidor_qu rum Identifica uno o m s servidores de qu rum Puede especificar el servidor de qu rum por el nombre de instancia o por el n mero del puerto Para mostrar la informaci n de configuraci n para todos los servidores de qu rum use el operando Visualizaci n de la configuraci n de un servidor de qu rum En el ejemplo siguiente se muestra la informaci n de configuraci n del servidor de qu rum que usa el puerto 9000 El comando muestra informaci n correspondiente a cada uno de los cl sters que tienen configurado el servidor de qu rum como dispositivo de qu rum Esta informaci n incluye el nombre del cl ster y su ID a
139. nfs b Creeelarchivo global etc SUNW nfs dfstab nfs rs en el nodo nodeC nodeC touch global etc SUNW nfs dfstab nfs rs Ap ndice A Ejemplo 393 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes 394 Vv Antes de empezar c Agregue la linea siguiente al archivo global etc SUNW nfs dfstab nfs rs en el nodo nodeC share F nfs o rw d HA NFS global mountpoint Vaya a Creaci n de un grupo de recursos de replicaciones en el cl ster primario en la p gina 394 Creaci n de un grupo de recursos de replicaciones en el cl ster primario Complete el procedimiento Configuraci n del sistema de archivos en el cl ster secundario para la aplicaci n NFS en la p gina 392 Obtenga acceso al nodo nodeA como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify solaris cluster admin y solaris cluster read Registre el tipo de recurso de SUNW HAStoragePlus nodeA clresourcetype register SUNW HAStoragePlus Cree un grupo de recursos de replicaciones para el grupo de dispositivos nodeA clresourcegroup create n nodeA nodeB devgrp stor rg n nodeA nodeB Especifica que los nodos del cl ster nodeA y nodeB pueden controlar el grupo de recursos de replicaciones devgrp stor rg El nombre del grupo de recursos de replicaciones En este nombre devgrp especifica el nombre del grupo de dispositivos
140. nticos 1 Convi rtase en superusuario en un nodo del cl ster global que aloje el cl ster de zona Algunos pasos del procedimiento se realizan desde un nodo de cl ster global Otros pasos se efect an desde un nodo del cl ster de zona 2 Elimine los recursos relacionados con el sistema de archivos que va a eliminar a Identifique y elimine los tipos de recursos de Oracle Solaris Cluster como HAStoragePlus y SUNW ScalMountPoint configurados para el sistema de archivos de cl ster de zona que va a quitar phys schost clresource delete F Z zoneclustername fs_zone_resources b Si procede identifique y elimine los recursos de Oracle Solaris Cluster de tipo SUNW qfs configurados en el cl ster global para el sistema de archivos que va a quitar phys schost clresource delete F fs_global_resources Use la opci n F con cuidado porque fuerza el borrado de todos los recursos que especifique incluso si no los ha inhabilitado primero Todos los recursos especificados se eliminan de la configuraci n de la dependencia de recursos de otros recursos que pueden provocar la p rdida de servicio en el cl ster Los recursos dependientes que no se borren pueden quedar en estado no v lido o de error Para obtener m s informaci n consulte la p gina de comando man cl resource 1CL Consejo Si el grupo de recursos del recurso eliminado se vac a posteriormente puede eliminarlo de forma segura 298 Guia de administraci n del sistema de
141. nuevo dispositivo de qu rum la utilidad clsetup muestra el correspondiente mensaje Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum 8 Compruebe que se haya agregado el dispositivo de qu rum clquorum list v Ejemplo6 1 Adici n de un dispositivo de qu rum de disco compartido En el ejemplo siguiente se muestra el comando clquorum generado por cl setup al agregar un dispositivo de qu rum de disco compartido y el paso de comprobaci n Become superuser or assume a role that provides solaris cluster modify RBAC authorization on any cluster node Start the clsetup utility clsetup Select Quorum gt Add a quorum device Answer the questions when prompted You will need the following information Information Example Directly attached shared disk shared disk Global device d20 Verify that the clquorum command was completed successfully clquorum add d20 Command completed successfully Quit the clsetup Quorum Menu and Main Menu Verify that the quorum device is added clquorum list v Quorum Type d20 shared disk scphyshost 1 node scphyshost 2 node Y C mo agregar un dispositivo del qu rum NAS de Sun o de Sun ZFS Storage Appliance Compruebe que todos los nodos del cl ster est n en l nea antes de agregar un nuevo dispositivo de qu rum phys schost refleja un indicador de cl ster global Siga
142. para que realice autom ticamente migraciones tras error use la replicaci n sincr nica Para obtener instrucciones sobre c mo configurar el cl ster para que realice migraciones tras error autom ticas de los vol menes replicados consulte Administraci n de dispositivos replicados basados en almacenamiento en la p gina 101 Oracle Real Application Clusters RAC no es compatible con SRDF Hitachi TrueCopy ni Hitachi Universal Replicator cuando se replica dentro de un cl ster Los nodos conectados a r plicas que no sean la r plica primaria no tendr n acceso de escritura Cualquier aplicaci n escalable que requiera acceso de escritura directo desde todos los nodos del cl ster no puede ser compatible con dispositivos replicados Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster Veritas Cluster Volume Manager CVM y Solaris Volume Manager multipropietario no son compatibles con Oracle Solaris Cluster No use los modos Domino o Adaptive Copy de EMC SRDF Consulte Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster en la p gina 92 para obtener m s informaci n No use los modos Data ni Status en Hitachi TrueCopy ni Hitachi Universal Replicator Consulte Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster en la p gina 92 para obtener m s informaci n
143. phys schost claccess deny h hostname Procedimiento para permitir que todos los equipos nuevos se agreguen al cluster global La utilidad clsetup genera el comando claccess El ejemplo siguiente muestra el comando claccess que permite que todos los equipos nuevos se agreguen al cluster phys schost claccess allow all Procedimiento para especificar que se agregue un equipo nuevo al cluster global La utilidad clsetup genera el comando claccess El ejemplo siguiente muestra el comando claccess que permite que un solo equipo nuevo se agregue al cl ster phys schost claccess allow h hostname Configuraci n de la autenticaci n en UNIX est ndar La utilidad clsetup genera el comando claccess El ejemplo siguiente muestra el comando claccess que restablece la configuraci n de la autenticaci n UNIX est ndar para los nodos nuevos que se unan al cl ster phys schost claccess set p protocol sys Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster Ejemplo 9 7 Configuraci n de la autenticaci n en DES La utilidad clsetup genera el comando claccess El ejemplo siguiente muestra el comando claccess que usa la autenticaci n DES para los nodos nuevos que se unan al cl ster phys schost claccess set p protocol des Cuando use la autenticaci n DES tambi n debe configurar todas las claves de cifrado necesarias antes de unir u
144. procedimiento emplea la utilidad clsetup para registrar el grupo de discos de VxVM asociado como grupo de dispositivos de Oracle Solaris Cluster Nota Tras haber registrado un grupo de dispositivos con el cl ster no importe ni exporte jam s un grupo de discos de VxVM mediante comandos de VxVM Si realiza cambios en el grupo de discos de VxVM o en el volumen siga el procedimiento Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager en la p gina 152 para registrar las modificaciones en la configuraci n del grupo de dispositivos Este procedimiento garantiza que el espacio de nombre global se mantenga en estado correcto phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 149 cl ster Administraci n de grupos de dispositivos Antes de empezar 150 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Antes de registrar un grupo de dispositivos de VxVM compruebe que se hayan cumplido los requisitos siguientes Se cuenta con privilegios de superusuario en un nodo del cl ster El nombre del grupo de discos de VxVM se registrar como grupo de
145. qu rum 216 Ejemplo 6 9 Para obtener m s informaci n sobre los n meros de votos de qu rum consulte About Quorum Vote Counts de Oracle Solaris Cluster Concepts Guide phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Restablezca el n mero de qu rum clquorum enable device dispositivo Especifica el nombre DID del dispositivo de qu rum que se va a restablecer por ejemplo d4 Si va a restablecer el n mero de qu rum porque un nodo estaba en estado de mantenimiento rearranque el nodo Compruebe el n mero de votos de qu rum clquorum show Restablecimiento del numero de votos de qu rum dispositivo de qu rum En el ejemplo siguiente se restablece el n mero de qu rum predeterminado en un dispositivo de qu rum y se comprueba el resultado clquorum enable d20 clquorum show Cluster Nodes Node Name phys schost 2 Node ID 1 Quorum Vote Count L Reservation Key 0x43BAC41300000001 Node Name phys schost 3 Node ID 2 Quorum Vote Count 1 Reserv
146. real de nodos secundarios y el n mero deseado Este procedimiento emplea la utilidad cl setup para establecer la propiedad numsecondaries en todos los tipos de grupos de dispositivos Consulte cldevicegroup 1CL si desea obtener informaci n sobre las opciones de los grupos de dispositivos al configurar cualquier grupo de dispositivos phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster modify en cualquier nodo del cl ster Inicie la utilidad clsetup clsetup Aparece el men principal Para trabajar con grupos de dispositivos seleccione la opci n del men Grupos de dispositivos y vol menes Se muestra el men Grupos de dispositivos Para modificar las propiedades esenciales de un grupo de dispositivos seleccione la opci n Cambiar las propiedades esenciales de un grupo de dispositivos Se muestra el men Cambiar las propiedades esenciales Para modificar el n mero de nodos secundarios escriba el n mero correspondiente la opci n de cambiar la propiedad numsecondaries Siga las instrucciones y escriba el n
147. recursos compartidos CPU asignados al nodo de votaci n zone cpu shares nombre_grupo_recursos Especifica el nombre del grupo de recursos En este procedimiento no se configura la propiedad RG_SLM_PSET_TYPE En el nodo de votaci n esta propiedad asume el valor default Este paso crea un grupo de recursos Si lo desea utilice el comando clresourcegroup set para modificar un grupo de recursos Active el cambio de configuraci n clresourcegroup online M resource_group_name nombre_grupo_recursos Especifica el nombre del grupo de recursos Nota No elimine ni modifique el proyecto de SCSLM_nombre_grupo_recursos Puede agregar m s control de recursos de forma manual al proyecto por ejemplo puede configurar la propiedad project max lwps Para obtener m s informaci n consulte la p gina de comando man projmod 1M Control del uso de la CPU en un nodo sin votaci n de cl ster global con el conjunto de procesadores predeterminado Siga este procedimiento si desea asignar recursos compartidos de CPU a grupos de recursos en un nodo sin votaci n de cl ster global pero sin tener que crear un conjunto de procesadores dedicado Si se asigna un grupo de recursos a los recursos compartidos de CPU el software Oracle Solaris Cluster realiza las tareas siguientes al iniciar un recurso de ese grupo en un nodo sin votaci n Crea una agrupaci n con el nombre SCSLM_nombre_grupo_recursos si todav a no se ha hecho Asocia la a
148. redes p blicas 237 Administraci n de interconexiones de cl sters 238 A Ejemplo 7 5 Convi rtase en superusuario en un nodo de cl ster Compruebe el estado de la interconexi n de cl ster antes de inhabilitar un cable clinterconnect status Precauci n Si recibe un mensaje de error del tipo ruta err nea al intentar eliminar un nodo de un cl ster de dos nodos investigue el problema antes de seguir con este procedimiento Un problema de ese tipo podr a denotar que una ruta del nodo no est disponible Si se elimina la ltima ruta operativa que quedaba el nodo deja de pertenecer al cl ster como consecuencia podr a darse una reconfiguraci n del cl ster Inicie la utilidad clsetup clsetup Aparece el men principal Escriba el n mero correspondiente a la opci n de acceder al men interconexi n de cl ster y pulse la tecla Intro Escriba el n mero correspondiente a la opci n de inhabilitar el cable de transporte y pulse la tecla Intro Siga las instrucciones y escriba la informaci n que se solicite Se inhabilitar n todos los componentes de la interconexi n de este cl ster Debe especificar los nombres del nodo y del adaptador de uno de los extremos del cable que est tratando de identificar Compruebe que se haya inhabilitado el cable clinterconnect show node adapter adapternode Inhabilitaci n de un cable de transporte de cl ster En este ejemplo se muestra c mo inhabilitar
149. replicaci n de datos 91 Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster 92 La replicaci n de datos basada en almacenamiento usa un software instalado en el dispositivo de almacenamiento para administrar la replicaci n dentro de un cl ster o un cl ster de campus Dicho software es espec fico del dispositivo de almacenamiento particular y no se utiliza para recuperaci n en caso de un problema grave Consulte la documentaci n suministrada con el dispositivo de almacenamiento al configurar la replicaci n de datos basada en almacenamiento En funci n del software que use puede utilizar la migraci n tras error autom tica o manual con la replicaci n de datos basada en almacenamiento Oracle Solaris Cluster admite la migraci n tras error autom tica o manual de los replicadores con Hitachi TrueCopy Hitachi Universal Replicator y EMC SRDF Esta secci n describe la replicaci n de datos basada en almacenamiento que se usa en un cl ster de campus La Figura 4 1 muestra un ejemplo de configuraci n de dos salas donde los datos se replican entre dos matrices de almacenamiento En esta configuraci n la matriz de almacenamiento principal se encuentra en la primera sala donde proporciona datos a los nodos de ambas salas Esta matriz de almacenamiento principal tambi n proporciona la matriz secundaria con datos para replicar Nota
150. root de la zona global a Especifique en cada entrada las opciones de montaje requeridas para el tipo de sistema de archivos que utilice b Para montar de forma autom tica el sistema de archivos de cl ster establezca el campo mount at boot en yes c Compruebe que la informaci n de la entrada etc vfstab de cada sistema de archivos de cl ster sea id ntica en todos los nodos d Compruebe que las entradas del archivo etc vfstab de cada nodo muestren los dispositivos en el mismo orden e Compruebe las dependencias de orden de inicio de los sistemas de archivos Por ejemplo fijese en la situaci n hipot tica siguiente phys schost 1 monta el dispositivo de disco d0 en global oracle y phys schost 2 monta el dispositivo de disco d1 en global oracle logs Con esta configuraci n phys schost 2 s lo puede iniciar y montar global oracle logs cuando phys schost 1inicie y monte global oracle Ejecute la utilidad de comprobaci n de la configuraci n en cualquier nodo del cl ster phys schost cluster check k vfstab Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de sistemas de archivos de cl ster Ejemplo 5 43 La utilidad de comprobaci n de la configuraci n verifica la existencia de los puntos de montaje Adem s comprueba que las entradas del archivo etc vfstab sean correctas en todos los nodos del cl ster Si no hay ning n error el comando no devue
151. rum Use este procedimiento para configurar dispositivos SATA o SCSI phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Inicie la utilidad clsetup clsetup Aparece el ment principal de clsetup Escriba el n mero correspondiente a la opci n de quorum Aparece el men Qu rum Escriba el n mero correspondiente a la opci n de agregar un dispositivo de qu rum a continuaci n escriba yes cuando la utilidad clsetup solicite que confirme el dispositivo de qu rum que va a agregar La utilidad cl setup pregunta qu tipo de dispositivo de qu rum se desea agregar Escriba el n mero correspondiente a la opci n de un dispositivo de qu rum de disco compartido La utilidad cl setup pregunta qu dispositivo global quiere utilizar Escriba el dispositivo global que va a usar La utilidad clsetup solicita que confirme que el nuevo dispositivo de qu rum debe agregarse al dispositivo global especificado Escriba yes para seguir agregando el nuevo dispositivo de qu rum Si se agrega correctamente el
152. rum coococicconccninnoncnnenncnnonan conan concen 207 Mantenimiento de dispositivos de QU TUM sssrsrsrosnarsnon anoressia 211 Cambio del tiempo de espera predeterminado del qu rum coococionicnoncnninnenncnconennonecncononccnnns 219 Administraci n de servidores de qu rum de Oracle Solaris Cluster oociniciininnionninnnms 219 Inicio y detenci n del software del servidor del qu rum cociocioncconinnnnnnononnconconnio cnn cnnncnn conan 220 Y Inicio de un servidor de QUOTUM siiiininicinini cio iii etica 220 Y Detenci n de un servidor de QU TUM sisissicscccisccscvccssescsctsenssescoctssrscescseescoccestsdes ici 221 Visualizaci n de informaci n sobre el servidor de qu rum coccccinconionncncnnncnnnnnconnennonconncnnnos 222 Limpieza de la informaci n caducada sobre clusters del servidor de quorum sss 223 Administraci n de interconexiones de clusters y redes p blicas oommooo 227 Administraci n de interconexiones de ClUSters rensarsrocaroararataiaiiiiiana ii 227 Reconfiguraci n din mica con interconexiones de cl sters coccion 229 Y Comprobaci n del estado de la interconexi n de cl ster ooooincniccinnininncnninnoncnnconncancinconnacanos 229 Adici n de dispositivos de cable de transporte de cl ster adaptadores o conmutadores de transporte sias oe NN R S 230 Y Eliminaci n de cable de transporte de cl ster adaptadores de transporte y conmutadores A A ecane vi n Saine an taaie i saa EEan EROA TEKANE aaiae
153. schost 1 d30 1 schost 1 d10 1 1 d4s0 schost 1 d20 1 1 d6s0 schost 1 d30 1 1 d8s0 Take a submirror offline metadetach s schost 1 d0 d30 Unlock the file system lockfs u Check the file system fsck dev md schost 1 rdsk d30 Copy the submirror to the backup device ufsdump Oucf dev rmt 0 dev md schost 1 rdsk d30 DUMP Writing 63 Kilobyte records DUMP Date of this level 0 dump Tue Apr 25 16 15 51 2000 DUMP Date of last level dump the epoch DUMP Dumping dev md schost 1 rdsk d30 to dev rdsk c1t9d0s0 DUMP DUMP IS DONE Bring the submirror back online metattach s schost 1 d0 d30 schost 1 d0 submirror schost 1 d30 is attached Resynchronize the submirror metastat s schost 1 d0 schost 1 d0 Mirror Submirror 0 schost 0 d10 State Okay Submirror 1 schost 0 d20 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Copia de seguridad de un cl ster State Okay Submirror 2 schost 0 d30 State Resyncing Resync in progress 42 done Pass 1 Read option roundrobin default v Copias de seguridad en linea para vol menes Veritas Volume Manager Veritas Volume Manager identifica un volumen duplicado como bidireccional Se puede realizar una copia de seguridad de una unidad sin desmontarla o poniendo el volumen entero fuera de l nea Este resultado se obtiene creando una copia de instant nea del volumen y realizando una copia de seguridad de este
154. se define en RFC 791 no es necesario seguir estos pasos i Agregue al archivo etc inet netmasks una entrada por cada subred p blica que emplee el cl ster La entrada siguiente es un ejemplo que contiene una direcci n IP de red p blica y una m scara de red 10 11 30 0 255 255 255 0 ii Anexe netmask broadcast al nombre de host para cada archivo etc hostname adaptador nodename netmask broadcast c Agregue el nombre de host del servidor de qu rum a todos los nodos del cl ster en el archivo etc inet hosts 0 etc inet ipnodes Agregue al archivo una asignaci n entre nombre de host y direcci n como la siguiente ipaddress qshostl direcci n_ip Direcci n IP del equipo donde se ejecuta el servidor de qu rum host1_sq Nombre de host del equipo donde se ejecuta el servidor de qu rum d Siusaun servicio de nombres agregue la asignaci n entre nombre y direcci n de host del servidor de qu rum a la base de datos del servicio de nombres Inicie la utilidad clsetup clsetup Aparece el ment principal de clsetup Escriba el n mero correspondiente a la opci n de quorum Aparece el men Qu rum Escriba el n mero correspondiente a la opci n de agregar un dispositivo de qu rum A continuaci n escriba yes para confirmar que va a agregar un dispositivo de qu rum La utilidad cl setup pregunta qu tipo de dispositivo de qu rum se desea agregar Escriba el n mero correspondiente a la opci n de
155. seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editarlos comandos El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener m s informaci n sobre el inicio basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration En la pantalla de los par metros de arranque utilice las teclas de flecha para seleccionar la entrada de n cleo y escriba e para editarla La pantalla de los par metros de arranque de GRUB que aparece es similar a la siguiente GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot module platform i86pc boot_archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu Agregue x al comando para especificar que el sistema arranque en un modo que no sea de cl ster Minimal BASH like line editing is supported For the firs
156. shutdown dentro de un cl ster de zona Nota Los nodos deben disponer de una conexi n operativa con la interconexi n de cl ster para poder convertirse en miembros del cl ster 4 Arranque todos los nodos No importa el orden en que se arranquen los nodos a menos que haga modificaciones de configuraci n entre operaciones de cierre Si modifica la configuraci n entre operaciones de cierre inicie primero el nodo con la configuraci n m s actual Para un nodo del cl ster global que est en un sistema basado en SPARC ejecute el comando siguiente ok boot Para un nodo del cl ster global que est en un sistema basado en x86 ejecute los comandos siguientes Cuando aparezca el men GRUB seleccione la entrada del sistema operativo Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 70 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Descripci n general sobre el cierre y el arranque de un cl ster Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Nota Los nodos deben disponer de una conexi n operativa con la interconexi n de cl ster para poder convertirse en miembros del cl ster Si desea o
157. srdf g replication device group d destination instance source instance Nota Los dispositivos de replicaci n de datos de SRDF no admiten la opci n T t tipo_replicaci n Especifica el tipo de replicaci n Para EMC SRDE escriba SRDF ggrupo_dispositivos_replicaci n Especifica el nombre del grupo de dispositivos como se muestra en el comando symdg show Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 115 cl ster Administraci n de dispositivos replicados basados en almacenamiento Pasos siguientes 116 d instancia_destino Especifica la instancia de DID que se corresponde con el dispositivo de RDF1 instancia_origen Especifica la instancia de DID que se corresponde con el dispositivo de RDF2 Nota Si comete una equivocaci n al combinar un dispositivo de DID use la opci n b con el comando scdidadm para deshacer la combinaci n de dos dispositivos de DID scdidadm b device b dispositivo La instancia de DID que se correspond a con el dispositivo de destino cuando las instancias estaban combinadas Si se modifica el nombre de un grupo de dispositivos de replicaci n en Hitachi TrueCopy y SRDF habr que efectuar m s pasos Tras haber completado los pasos del 1 al 4 realice el paso adicional correspondiente Elemento Descripci n TrueCopy Si se cambia el nombre del grupo de dispositivos de replicaci n y del grupo de dispositivos glob
158. ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos 1 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster 2 Compruebe que todos los nodos de Oracle Solaris Cluster est n en l nea y puedan comunicarse con el servidor de qu rum de Oracle Solaris Cluster a Compruebe que los conmutadores de red conectados directamente con los nodos del cl ster cumplan uno de los criterios siguientes El conmutador es compatible con el protocolo RSTP El conmutador tiene habilitado el modo de puerto r pido Se necesita una de estas funciones para que la comunicaci n entre los nodos del cl ster y el servidor de qu rum sea inmediata Si el conmutador ralentizada dicha comunicaci n se ralentizase de forma significativa el cl ster interpretar a este impedimento de la comunicaci n como una p rdida del dispositivo de qu rum 204 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum b Sila red p blica utiliza subredes de longitud variable o CIDR Classless Inter Domain Routing modifique los archivos siguientes en cada uno de los nodos Si usa subredes con clases tal y como
159. ster primario nodeA clresourcegroup online n nodeA nfs rg d Ponga el cl ster primario en modo de replicaci n Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n u Lhost reprg prim dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Ap ndice A Ejemplo 409 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite V ase tambi n 410 Cuando se escribe en el volumen principal el software Sun StorageTek Availability Suite actualiza el volumen secundario Ejemplo de c mo controlar una migraci n tras error en la p gina 410 Ejemplo de c mo controlar una migraci n tras error Esta secci n describe c mo provocar una migraci n tras error y c mo transferir la aplicaci n al cl ster secundario Despu s de una migraci n tras error actualice las entradas de DNS Para obtener m s informaci n consulte Directrices para administrar migraciones tras error en la p gina 383 Esta secci n incluye los procedimientos siguientes Procedimiento para propiciar una conmutaci n en la p gina 410 Actualizaci n de la entrada de DNS en la p gina 411 Procedimiento para propiciar una conmutaci n Obtenga acceso al nodo nodea y al nodo nodeC como superusuario o asuma una funci n que cuente con la autorizac
160. tabla siguiente se enumeran las tareas necesarias para configurar y administrar un dispositivo replicado basado en almacenamiento de EMC Symmetrix Remote Data Facility SRDP TABLA 5 3 Mapa de tareas administrar un dispositivo replicado basado en almacenamiento de EMC SRDF Tarea Instrucciones Instalar el software de SRDF en el dispositivo de La documentaci n incluida con el dispositivo de almacenamiento y los nodos almacenamiento EMC Configurar el grupo de replicaciones de EMC Configuraci n de un grupo de replicaciones de EMC SRDF en la p gina 113 Configurar el dispositivo de DID Configuraci n de dispositivos de DID para la replicaci n con EMC SRDP en la p gina 115 Registrar el grupo replicado Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la p gina 136 o Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 Comprobar la configuraci n Comprobaci n de la configuraci n de un grupo de dispositivos globales replicado con EMC SRDF en la p gina 117 Recuperar los datos de forma manual despu s de que Recuperaci n de datos de EMC SRDF tras un error la sala primaria de un cl ster de campus falle por completo de la sala primaria en la p gina 122 completo Y Configuraci n de un grupo de replicaciones de EMC SRDF Antes de empezar Antes de configurar un grupo de replicaciones de EMC SRDE el software EMC So
161. tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Realice copias de seguridad de todas las tablas de bases de datos los servicios de datos y los vol menes que est n asociados con la matriz de almacenamiento que vaya a eliminar Determine los grupos de recursos y grupos de dispositivos que se est n ejecutando en el nodo que se vaa desconectar phys schost clresourcegroup status phys schost cldevicegroup status Sies necesario traslade todos los grupos de recursos y grupos de dispositivos fuera del nodo que se vaya a desconectar Caution SPARC only Si el cl ster ejecuta software de Oracle RAC cierre la instancia de base de datos Oracle RAC que est en ejecuci n en el nodo antes de mover los grupos y sacarlos fuera del nodo Si desea obtener instrucciones consulte Oracle Database Administration Guide phys schost clnode evacuate node El comando clnode evacuate conmuta todos los grupos de dispositivos desde el nodo especificado al siguiente nodo por orden de preferencia El comando tambi n conmuta todos los grupos de recursos desde los nodos de votaci n o sin votaci n del nodo especificado hasta el siguiente nodo por orden de preferencia sea de votaci n o sin votaci n Establezca los grupos de dispositivos en estado de mantenimiento Para el procedimiento destinado a consentir la actividad E S en los grupos de discos compartidos Veritas consulte la docu
162. totalmente disponible una aplicaci n se debe administrar como un recurso en un grupo de recursos de aplicaciones Un grupo de recursos de aplicaciones se puede configurar en una aplicaci n de migraci n tras error o en una aplicaci n escalable Los recursos de aplicaciones y los grupos de recursos de aplicaciones configurados en el cl ster primario tambi n se deben configurar en el cl ster secundario Asimismo se deben replicar en el cl ster secundario los datos a los que tiene acceso el recurso de aplicaciones Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Esta secci n proporciona directrices para la configuraci n de grupos de recursos de aplicaciones siguientes Configuraci n de grupos de recursos en una aplicaci n de migraci n tras error en la p gina 381 Configuraci n de grupos de recursos en una aplicaci n escalable en la p gina 382 Configuraci n de grupos de recursos en una aplicaci n de migraci n tras error En una aplicaci n de migraci n tras error una aplicaci n se ejecuta en un solo nodo a la vez Si ste falla la aplicaci n migra a otro nodo del mismo cl ster Un grupo de recursos de una aplicaci n de migraci n tras error debe tener las caracter sticas siguientes Tener un recurso de HAStoragePlus para forzar la migraci n tras error d
163. un grupo de dispositivos para el dispositivo replicado EMC SRDE debe configurar el controlador de DID utilizado por el dispositivo replicado Configuraci n de dispositivos de DID para la replicaci n con EMC SRDF Este procedimiento configura el controlador de DID que emplea el dispositivo replicado phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Determine los dispositivos de DID que se corresponden con los dispositivos de RDF1 y de RDF2 configurados usr symcli bin symdg show group name Nota Si el sistema no muestra todos los parches del dispositivo de Oracle Solaris establezca en 1 la variable de entorno SYMCLI_FULL_PDEVNAME y vuelva a escribir el comando symdg show Determine los dispositivos de DID que se corresponden con los dispositivos de Oracle Solaris cldevice list v Para cada par de dispositivos de DID emparejados combine las instancias de forma que obtenga un nico dispositivo de DID replicado Ejecute el comando siguiente desde la parte secundaria o RDF2 cldevice combine t
164. un nodo del cl ster con acceso al conjunto de discos que no sea el nodo que va a restaurar Use otro nodo que no sea el que va a restaurar Elimine el nombre de host del nodo que se va a restaurar de todos los conjuntos de discos a los que que est conectado Ejecute el comando siguiente una vez para cada conjunto de discos metaset s setname d h hostname s nombre_conjunto Especifica el nombre del metaconjunto f Elimina el ltimo host del conjunto de discos d Elimina del metaconjunto h lista_nodos Especifica el nombre del nodo que desea eliminar del metaconjunto h nombre_host Especifica el nombre del host mlista_host_mediador Especifica el nombre del host mediador para agregar o quitar desde el conjunto de discos Cap tulo 12 Copias de seguridad y restauraciones de clusters 353 Restauraci n de los archivos del cl ster 3 354 Si el nodo es un host mediador de dos cadenas elimine el mediador Ejecute el comando siguiente una vez para cada conjunto de discos que est conectado al nodo metaset ssetname d m hostname Sustituya el disco defectuoso del nodo en el que se restaurar el sistema de archivos root Consulte los procesos de sustituci n en la documentaci n que se suministra con el servidor Arranque el nodo que est restaurando El nodo reparado se inicia en modo de un solo usuario desde el CD ROM por lo que Solaris Volume Manager no se est ejecutando en el nodo Siesta
165. una MIB de eventos de SNMP en la p gina 288 Inhabilitar una MIB de eventos de SNMP Inhabilitaci n de una MIB de eventos de SNMP en la p gina 289 Cambiar una MIB de eventos de SNMP Cambio de una MIB de eventos de SNMP en la p gina 289 Agregar un host de SNMP a la lista de hosts Habilitaci n de un host de SNMP para que reciba capturas de que recibir n las notificaciones de captura SNMP en un nodo en la p gina 290 de las MIB Quitar un host de SNMP Inhabilitaci n de la recepci n de capturas de SNMP en un nodo por parte del host de SNMP en la p gina 291 Agregar un usuario de SNMP Adici n de un usuario de SNMP a un nodo en la p gina 292 Suprimir un usuario de SNMP Eliminaci n de un usuario de SNMP de un nodo en la p gina 293 Y Habilitaci n de una MIB de eventos de SNMP Este procedimiento muestra c mo habilitar una MIB de eventos de SNMP phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que cuente con autorizaci n RBAC solaris cluster modify Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n gener
166. usando el CD del sistema operativo Oracle Solaris tenga en cuenta lo siguiente SPARC tipo ok boot cdrom s x86 inserte el CD y arranque el sistema Para ello cierre el sistema y a continuaci n ap guelo y vu lvalo a encender En la pantalla de los par metros actuales de arranque escriba bo i lt lt lt Current Boot Parameters gt gt gt Boot path pci 0 0 pci8086 2545 3 pci8086 1460 1d pci8086 341a 7 1 sd 0 0 a Boot args Type b file name boot flags lt ENTER gt to boot with options or i lt ENTER gt to enter boot interpreter or lt ENTER gt to boot with defaults lt lt lt timeout in 5 seconds gt gt gt Select b oot or i nterpreter b s Siesta usando un servidor JumpStart de Solaris tenga en cuenta lo siguiente SPARC tipo ok boot net s x86 inserte el CD y arranque el sistema Para ello cierre el sistema y a continuaci n ap guelo y vu lvalo a encender En la pantalla de los par metros actuales de arranque escriba bo i lt lt lt Current Boot Parameters gt gt gt Boot path pci 0 0 pci8086 2545 3 pci8086 1460 1d pci8086 341a 7 1 sd 0 0 a Boot args Type b file name boot flags lt ENTER gt to boot with options or i lt ENTER gt to enter boot interpreter or lt ENTER gt to boot with defaults lt lt lt timeout in 5 seconds gt gt gt Select b oot or i nterpreter b s Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de
167. va a crear a h lista_nodos Agregue la lista de nodos que pueden controlar el conjunto de discos M Designa el grupo de discos como grupo de m ltiples propietarios Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Nota Al ejecutar el comando metaset para configurar un grupo de dispositivos de Solaris Volume Manager en un cl ster de forma predeterminada se obtiene un nodo secundario sea cual sea el n mero de nodos incluidos en dicho grupo de dispositivos La cantidad de nodos secundarios puede cambiarse mediante la utilidad clsetup tras haber creado el grupo de dispositivos Consulte Establecimiento del n mero de secundarios para un grupo de dispositivos en la p gina 164 si desea obtener m s informaci n sobre la migraci n de disco tras error Si configura un grupo de dispositivos replicado establezca la propiedad de replicaci n para el grupo de dispositivos cldevicegroup sync devicegroup Compruebe que se haya agregado el grupo de dispositivos El nombre del grupo de dispositivos coincide con el del conjunto de discos que se especifica con metaset cldevicegroup list Enumere las asignaciones de DID cldevice show grep Device Elijalas unidades que comparten los nodos del cl ster que vayan a controlar el conjunto de discos o que tengan la posibilidad de hacerlo Use el nombre de dispositivo de DID completo
168. y configurar el software del nuevo nodo del cluster Agregar el nuevo nodo a un cl ster existente Si el cl ster se configura en asociaci n con Oracle Solaris Cluster Geographic Edition configure el nuevo nodo como participante activo en la configuraci n Oracle Solaris Cluster 3 3 Hardware Administration Manual Oracle Solaris Cluster 3 3 Hardware Administration Manual Adici n de un nodo a la lista de nodos autorizados en la p gina 248 Cap tulo 2 Instalaci n del software en los nodos del cl ster global de Oracle Solaris Cluster Software Installation Guide Adici n de nodos a un cl ster en la p gina 247 How to Add a New Node to a Cluster in a Partnership de Oracle Solaris Cluster Geographic Edition System Administration Guide v Adici n de un nodo ala lista de nodos autorizados Antes de agregar un host de Oracle Solaris o una m quina virtual a un cl ster global o a uno de zona que ya existe aseg rese de que el nodo disponga de todos los elementos de hardware necesarios correctamente instalados y configurados lo que incluye una conexi n f sica Operativa con la interconexi n privada del cl ster Para obtener informaci n sobre la instalaci n de hardware consulte Oracle Solaris Cluster 3 3 Hardware Administration Manual o la documentaci n de hardware proporcionada con el servidor Este procedimiento habilita un equipo para que se instale a s mismo en un cl ster al agregar s
169. y el firmware de Oracle Solaris Cluster 325 Aplicaci n de parches del software Oracle Solaris Cluster 326 V ase tambi n SPARC tipo ok boot sx x86 arranque el nodo en un modo monousuario que no sea de cl ster Consulte los pasos de arranque en el procedimiento siguiente patchadd M var tmp patches 234567 05 showrev p grep 234567 05 reboot cldevicegroup switch n phys schost 1 dg schost 1 clresourcegroup switch n phys schost 1 schost sa 1 scversions Upgrade commit is needed scversions c Si necesita anular un parche consulte Cambio de un parche de Oracle Solaris Cluster en la pagina 335 Aplicacion de un parche de rearranque cluster Con este procedimiento antes de aplicar el parche debe detener el cluster y arrancar cada nodo en modo monousuario con el comando boot sx o shtudown g y 10 Antes de aplicar el parche visite el sitio web del producto de Oracle Solaris Cluster y compruebe si hay instrucciones especiales sobre preinstalaci n o postinstalaci n Convi rtase en superusuario en un nodo de cl ster Cierre el cl ster cluster shutdown y g grace period message y Especifica responder s al indicador de confirmaci n g per odo_gracia Especifica en segundos el tiempo de espera antes de cerrar El per odo de gracia predeterminado es de 60 segundos mensaje Especifica el mensaje de advertencia que transmitir Use comillas si el mensaje co
170. zona Este ejemplo muestra c mo eliminar los sistemas de archivos de ZFS en una agrupaci n de ZFS llamada HAzpool configurada en el cl ster de zona sczone del recurso hasp rs de tipo SUNW HAStoragePlus phys schost clzonecluster show v sczone Resource Name dataset name HAzpool phys schost clresource delete F Z sczone hasp rs phys schost clzonecluster configure sczone Capitulo9 Administraci n del cl ster 299 Ejecuci n de tareas administrativas del cl ster de zona Ejemplo 9 14 300 clzc sczone gt remove dataset name HAzpool clzc sczone gt commit phys schost clzonecluster show v sczone Eliminacion de un dispositivo de almacenamiento desde un cluster de zona Puede eliminar dispositivos de almacenamiento por ejemplo grupos de de discos de SVM y los dispositivos de DID de un cluster de zona Siga este procedimiento para eliminar un dispositivo de almacenamiento desde un cluster de zona Convi rtase en superusuario en un nodo del cluster global que aloje el cluster de zona Algunos pasos del procedimiento se realizan desde un nodo de cluster global Otros pasos se efectuan desde un nodo del cluster de zona Elimine los recursos relacionados con los dispositivos que se van a eliminar Identifique y elimine los tipos de recursos de Oracle Solaris Cluster como SUNW HAStoragePlus y SUNW ScalDeviceGroup configurados para los dispositivos del cl ster de zona que va a eliminar phys schost clresource de
171. 0 0 phys campus 1 symrdf g dgl force failover phys campus 1 symrdf g dgl query grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S Failed Over phys campus 1 symdg list grep RDF dgl RDF1 Yes 00187990182 1 0 0 0 0 phys campus 1 symrdf g dgl swap phys campus 1 symrdf g dgl query grep DEV DEVO01 0012 WD 0 0 NR 0012 RW 0 2031 S Suspended phys campus 1 symdg list grep RDF dgl RDF2 Yes 000187990182 1 0 0 0 Q phys campus 1 symrdf g dgl establish Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n de sistemas de archivos de cl sters phys campus 1 symrdf g dgl query grep DEV DEVO01 0012 WD 0 0 RW 0012 RW 0 S Synchronized phys campus 1 symdg list grep RDF dgl RDF2 Yes 000187990182 1 0 0 0 0 Informaci n general sobre la administraci n de sistemas de archivos de cl sters No es necesario utilizar ning n comando especial de Oracle Solaris Cluster para la administraci n del sistema de archivos de cl ster Un sistema de archivos de cl ster se administra igual que cualquier otro sistema de archivos de Oracle Solaris es decir mediante comandos est ndar de sistema de archivos de Oracle Solaris como mount y newfs Puede montar sistemas de archivos de cl ster si especifica la opci n g en el comando mount Los sistemas de archivos de cl ster tambi n se pueden montar autom ticamente durante el arranque Los sistemas d
172. 000 80 70 172 16 0 129 255 255 255 128 0 Enabled hub2 Enabled Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 235 Administraci n de interconexiones de cl sters 236 Switch Type switch Switch Port Names 12 Switch Port State 1 Enabled Switch Port State 2 Enabled v Habilitaci n de un cable de transporte de cluster Ejemplo 7 4 Este procedimiento tambi n puede efectuarse mediante la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Esta opci n se utiliza para habilitar un cable de transporte de cl ster que ya existe phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario en un nodo de cl ster Inicie la utilidad clsetup clsetup Aparece el ment principal Escriba el n mero correspondiente a la opci n de acceder al men interconexi n de cl ster y pulse la tecla Intro Escriba el n mero correspondiente a la opci n de habilitar el cable de transporte y pulse la tecla Intro Siga las instrucciones cuando se solicite Debe especificar los nombres del nodo y del adaptador de uno
173. 011 Revisi n A Cierre y arranque de un solo nodo de un cl ster Ejemplo 3 13 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Hostname phys schost 1 Booting as part of a cluster NOTICE Node phys schost 1 attempting to join cluster NOTICE Node phys schost 1 joined cluster The system is coming up Please wait checking ufs filesystems reservation program successfully exiting Print services started volume management starting The system is ready phys schost 1 console login Rearranque de un nodo del cluster global El ejemplo siguiente muestra c mo rearrancar un nodo de un cl ster de zona phys schost clzonecluster reboot n schost 4 sparse sczone Waiting for zone reboot commands to complete on all the nodes of the zone cluster sparse sczone Sep 5 19 40 59 schost 4 cl_runtime NOTICE Membership Node 3 of cluster sparse sczone phys schost Sep sparse sczone phys schost died 5 19 41 27 schost 4 cl_runtime NOTICE Membership Node 3 of cluster joined phys schost clzonecluster status Zone Clusters Zone Cluster Status Name Node Name Zone HostName Status Zone Status sparse sczone schost 1 sczone 1 Online Running schost 2 sczone 2 Online Running schost 3 sczone 3 Online Running schost 4 sczone 4 Online Running phys s
174. 1 C 0 11 HORCM_INST dev_group ip address service VGO1 node 1 horcm VGO1 node 2 horcm En los ejemplos anteriores se replican tres LUN entre los dos sitios Todos los LUN estan en un grupo de replicaciones denominado VG01 El comando pairdisplay comprueba esta informaci n y muestra que el nodo 3 tiene la r plica primaria EJEMPLO 5 4 Salida del comando pairdisplay en el nodo 1 pairdisplay g VGO1 Group PairVol L R Port TID LU Seq _LDEV P S Status Fence Seq P LDEV M VGO1 pairl L CL1 A 0 29 61114 29 S VOL PAIR NEVER 58 VGO1 pairl R CL1 C 0 9 20064 58 P VOL PAIR NEVER 61114 29 VGO1 pair2 L CL1 A 0 30 61114 30 S VOL PAIR NEVER 59 gt VGO1 pair2 R CL1 C 0 10 20064 59 P VOL PAIR NEVER 61114 30 VGO1 pair3 L CL1 A 0 31 61114 31 S VOL PAIR NEVER 60 VGO1L pair3 R CL1 C 0 11 20064 60 P VOL PAIR NEVER 61114 31 EJEMPLO 5 5 Salida del comando pairdisplay en el nodo 2 pairdisplay g VGQ1 Group PairVol L R Port TID LU Seq LDEV P S Status Fence Seq P LDEV M VGO1 pair1 L CL1 A 0 29 61114 29 S VOL PAIR NEVER 58 VGO1 pair1 R CL1 C 0 9 20064 58 P VOL PAIR NEVER 61114 29 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento EJEMPLO 5 5 Salida del comando pairdisplay en el nodo 2 VGO1 pair2 L CL1 A VG01 pair2 R CL1 C
175. 14 83 9000 testdg3 SVM no phys schost 1 phys schost 2 yes 1 testdg3 SUNW LogicalHostname 2 Logical Hostname Resource Type 2 2 usr cluster lib rgm rt hafoip False False All potential masters lt All gt 40 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Failover Pkglist RT_system Resource Type RT_description RT_version API_version RT_basedir Single instance Proxy Init_nodes Installed_nodes Failover Pkglist RT_system Resource Type RT_description RT_version API_version RT_basedir Single instance Proxy Init_nodes Installed_nodes Failover Pkglist RT_system Resource Type RT_description RT_version API_version RT_basedir Single instance Proxy Init_nodes Installed_nodes Failover Pkglist RT_system Resource Type RT_description RT_version API_version RT_basedir Single instance Proxy Init_nodes Installed_nodes Failover Pkglist RT_system Resource Groups and Resources True SUNWs cu True SUNW SharedAddress 2 HA Shared Address Resource Type 2 2 usr cluster lib rgm rt hascip False False lt Unknown gt lt All gt True SUNWs cu True SUNW HAStoragePlus 4 HA Storage Plus 4 2 usr cluster lib rgm rt hastorageplus False False ALL potential masters lt All gt False SUNWscu False SUNW haderb
176. 16 0 0 private netmask 255 255 248 0 max_nodes 64 max_privatenets 10 global_fencing pathcount Node List phys racerxx 1 phys racerxx 2 Visualizacion del protocolo SCSI de un solo dispositivo de almacenamiento phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione autorizaci n de RBAC solaris cluster read Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 173 cl ster Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento 2 Ejemplo 5 40 174 Desde cualquier nodo visualice la configuraci n del protocolo SCSI del dispositivo de almacenamiento cldevice show device dispositivo Nombre de la ruta del dispositivo o un nombre de dispositivo Para obtener m s informaci n consulte la p gina de comando man cldevice 1CL Visualizaci n del protocolo SCSI de un solo dispositivo En el ejemplo siguiente se muestra el protocolo SCSI del dispositivo dev rdsk c4t8d0 cldevice show dev rdsk c4t8d0 DID Device Instances DID Device Name dev did rdsk d3 Full Devi
177. 17 Para que se muestre el DID correspondiente escriba cldevice show d217 DID Device Instances DID Device Name Full Device Path Full Device Path Replication default_fencing dev did rdsk d217 pmoney2 dev rdsk c5t6006048000018790002353594D303637d0 pmoney1 dev rdsk c5t6006048000018790002353594D303637d0 none global En la parte de RDF2 escriba Observe el campo PdevName de la salida del comando dymdg show dg symdg show dgl Group Name dgl Group Type Standard STD Devices 1 DEV001 RDF2 RDFA Sym Cap PdevName Dev Att Sts MB dev rdsk c5t6006048000018799018253594D303637d0s2 0067 WD 4315 Device Group RDF Information Para obtener el DID correspondiente escriba scdidadm L grep c5t6006048000018799018253594D303637d0 108 108 pmoney4 dev rdsk c5t6006048000018799018253594D303637d0 dev did rdsk d108 pmoney3 dev rdsk c5t6006048000018799018253594D303637d0 dev did rdsk d108 Para que se muestre el DID correspondiente escriba Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de cl ster 121 Administraci n de disposi tivos replicados basados en almacenamiento EJEMPLO 5 17 Visualizaci n de los DID correspondientes a los discos usados Continuaci n cldevice show d108 DID Device Instances DID Device Name Full Device Path Full Device Path Replication default_fencing cldevice sh
178. 196 qu rum para sustituir el que se va a eliminar Cap tulo6 Administraci n de qu rum 195 Administraci n de dispositivos de qu rum 196 TABLA 6 2 Mapa de tareas reconfiguraci n din mica con dispositivos de qu rum Continuaci n Tarea Instrucciones 2 Inhabilitar el dispositivo de qu rum que Eliminaci n de un dispositivo de qu rum en la p gina 208 se va a eliminar 3 Efectuar la operaci n de eliminaci n de Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual reconfiguraci n din mica en el dispositivo de la recopilaci n Solaris 10 on Sun Hardware que se va a eliminar Adici n de un dispositivo de qu rum En esta secci n se indican los procedimientos para agregar un dispositivo del qu rum Compruebe que todos los nodos del cl ster est n en l nea antes de agregar un nuevo dispositivo de qu rum Si desea obtener informaci n sobre c mo determinar el n mero de n meros de votos de qu rum necesario para el cl ster configuraciones de qu rum recomendadas y protecci n de errores consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide Precauci n No agregue ning n disco configurado como dispositivo de qu rum a una agrupaci n de almacenamiento ZFS de Solaris Si se agrega un dispositivo de qu rum configurado a una agrupaci n de almacenamiento ZFS de Solaris el disco se vuelve a etiquetar como disco EFI se pierde la informaci n de configuraci
179. 2011 Revisi n A Restauraci n de los archivos del cl ster 10 11 12 Cree todas las particiones e intercambie el espacio del disco root mediante el comando format Vuelva a crear el esquema de partici n original que estaba en el disco defectuoso Cree el sistema de archivos root y los pertinentes sistemas de archivos con el comando newfs Vuelva a crear los sistemas de archivos originales que estaban en el disco defectuoso Nota Compruebe que se cree el sistema de archivos global devices node nodeid Monte el sistema de archivos root en un punto de montaje temporal mount device temp mountpoint Use los comandos siguientes para restaurar el sistema de archivos root 7 cd temp mountpoint ufsrestore rvf dump device rm restoresymtable Instale un bloque de arranque nuevo en el disco nuevo usr sbin installboot usr platform uname i lib fs ufs bootblk raw disk device Elimine las lineas del archivo puntomonjtaje_temp etc system para la informacion root de MDD Begin MDD root info do not edit forceload misc md_trans forceload misc md_raid forceload misc md_ mirror forceload misc md_hotspares forceload misc md_ stripe forceload drv pcipsy forceload drv glm forceload drv sd rootdev pseudo md 0 0 10 blk End MDD root info do not edit Edite el archivo temp mountpoint etc vfstab para cambiar la entrada raiz de un volumen de Solaris Volume Manager a un segmento n
180. 295 propiedad concentrate _load 293 propiedad preemption_mode 293 M mantener dispositivo de qu rum 214 mapa de bits instant nea de un momento determinado 377 replicaci n por duplicaci n remota 376 matrices de almacenamiento eliminar 259 mensajes de error archivo var adm messages 87 eliminar nodos 261 262 MIB cambiar protocolo de eventos de SNMP 289 habilitar e inhabilitar un evento de SNMP 288 289 MIB de eventos cambiar protocolo SNMP 289 habilitar e inhabilitar SNMP 288 289 migraci n tras error de afinidad propiedad de extensi n para replicaci n de datos 380 migrar espacio de nombre de dispositivos globales 132 modificar grupos de discos 148 listas de nodos de dispositivo de qu rum 211 nodos primarios 169 170 propiedad numsecondaries 164 propiedades 162 usuarios RBAC 61 montaje directo exportar un sistema de archivos a un cl ster de zona 297 300 montaje en bucle invertido exportar un sistema de archivos a un cl ster de zona 297 300 mostrar recursos configurados 31 419 ndice N NAS Ver dispositivos de qu rum de almacenamiento conectados a red NAS de Network Appliance admitido como dispositivo del qu rum 196 NAS de Sun admitido como dispositivo del qu rum 196 NetApp Ver dispositivos de qu rum de almacenamiento conectados a red Network Appliance Ver dispositivos de qu rum de almacenamiento conectados a red Network File System NES configurar sistemas de archivos
181. 3 cl ster Administraci n de dispositivos replicados basados en almacenamiento 124 Ejemplo 5 20 Despu s de la migraci n tras error puede intercambiar los datos de los dispositivos de RDF que efectuaron la migraci n phys campus 1 symrdf g dgl swap Compruebe el estado y dem s informaci n relativa a los dispositivos de RDF phys campus 1 symrdf g dgl query Establezca el grupo de dispositivos de SRDF en la sala primaria phys campus 1 symrdf g dgl establish Confirme que el grupo de dispositivos est sincronizado y que sea del tipo RDF2 phys campus 1 symrdf g dgl query Recuperaci n manual de datos de EMC SRDF despu s de una migraci n tras error habida en un sitio primario Este ejemplo muestra los pasos necesarios en Oracle Solaris Cluster para recuperar manualmente los datos de EMC SRDF despu s de que la sala primaria de un cl ster de campus migre tras error una sala secundaria controle y registre los datos y posteriormente la sala primaria vuelva a estar en l nea En el ejemplo el grupo de dispositivos de SRDF se denomina dgl y el dispositivo l gico est ndar es DEV001 En el momento del error la sala primaria es phys campus 1 y la sala secundaria es phys campus 2 Efect e los pasos desde la sala primaria del cl ster de campus phys campus 1 phys campus 1 symrdf g dgl query grep DEV DEVO01 0012RW 0 ONR 0012RW 2031 OS Split phys campus 1 symdg list grep RDF dgl RDF1 Yes 00187990182 1 0 0
182. 3 3 0 REV 2010 06 14 03 44 SUNWscspmu 3 3 0 REV 2010 06 14 03 44 SUNWscderby 3 3 0 REV 2010 06 14 03 44 3 0 REV 2010 06 14 03 44 SUNWsctelemetry 3 SUNWscgrepavs 3 2 3 REV 2009 10 23 12 12 SUNWscgrepsrdf 3 2 3 REV 2009 10 23 12 12 SUNWscgreptc 3 2 3 REV 2009 10 23 12 12 SUNWscghb 3 2 3 REV 2009 10 23 12 12 SUNWscgctl 3 2 3 REV 2009 10 23 12 12 SUNWscims 6 0 REV 2003 10 29 SUNWscics 6 0 REV 2003 11 14 SUNWscapc 3 2 0 REV 2006 12 06 18 32 SUNWscdns 3 2 0 REV 2006 12 06 18 32 SUNWschadb 3 2 0 REV 2006 12 06 18 32 SUNWschtt 3 2 0 REV 2006 12 06 18 32 SUNWscslas 3 2 0 REV 2006 12 06 18 32 SUNWsckrb5 3 2 0 REV 2006 12 06 18 32 SUNWscnfs 3 2 0 REV 2006 12 06 18 32 SUNWscor 3 2 0 REV 2006 12 06 18 32 SUNWscs1mq 3 2 0 REV 2006 12 06 18 32 SUNWscsap 3 2 0 REV 2006 12 06 18 32 SUNWsclc 3 2 0 REV 2006 12 06 18 32 SUNWscsapdb 3 2 0 REV 2006 12 06 18 32 SUNWscsapenq 3 2 0 REV 2006 12 06 18 32 SUNWscsaprepl 3 2 0 REV 2006 12 06 18 32 SUNWscsapscs 3 2 0 REV 2006 12 06 18 32 SUNWscsapwebas 3 2 0 REV 2006 12 06 18 32 SUNWscsbl 3 2 0 REV 2006 12 06 18 32 30 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Antes de empezar SUNWscsyb 3 2 0 REV 2006 12 06 18 32 SUNWscwls 3 2 0 REV 2006 12 06 18 32 SUNWsc9ias 3 2 0 REV 2006 12 06 18 32 SUNWscPostgreSQL 3 2 0 REV 2006 12 06 18 32 SUNWsczone 3 2 0 REV 2006 12 06 18 32
183. 6000000013d0 dev did rdsk d20 dev rdsk c5t50060E800000000000004E600000003Dd0 dev did rdsk d21 dev rdsk c6t500060E8000000000000EEBA0000001Fd0 dev did rdsk d1222 dev rdsk c5t500060E8000000000000EEBA0000001Fd0 dev did rdsk d12 dev rdsk c5t50060E800000000000004E600000003Cd0 dev did rdsk d22 dev rdsk c6t500060E8000000000000EEBA0000001Ed0 dev did rdsk d13 dev rdsk c5t500060E8000000000000EEBA0000001Ed0 dev did rdsk d13 dev rdsk c5t50060E800000000000004E600000003Bd0 dev did rdsk d23 dev rdsk c6t500060E8000000000000EEBA0000001Dd0 dev did rdsk d24 dev rdsk c5t500060E8000000000000EEBA0000001Dd0 dev did rdsk d24 dev rdsk c5t50060E800000000000004E600000003Ad0 dev did rdsk d24 El paso siguiente es crear el grupo de dispositivos de administrador de vol menes Ejecute este comando desde el nodo que tenga la r plica primaria en este ejemplo el nodo 3 Asigne al grupo de dispositivos el mismo nombre que al grupo de r plica como se muestra en el ejemplo siguiente Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 111 cl ster Administraci n de dispositivos replicados basados en almacenamiento EJEMPLO 5 13 Creaci n del grupo de dispositivos de Solaris Volume Manager metaset s VGQ1 ah phys deneb 3 metaset s VGQ1 ah phys deneb 1 metaset s VGQ1 ah phys deneb 2 metaset s VGQ1 a dev did rdsk d22 metaset s VGQ1 a dev did rdsk d23 metaset
184. 678493 dm schost 106 c2t3d0s2 17678493 v vol01 gen ENABLED 204800 ACTIVE pl vol01 01 vol01 ENABLED 208331 ACTIVE sd schost 101 01 vol01 01 ENABLED 104139 0 sd schost 102 01 vol01 01 ENABLED 104139 0 pl vol01 02 vol01 ENABLED 208331 ACTIVE sd schost 103 01 vol01 02 ENABLED 103680 0 sd schost 104 01 vol01 02 ENABLED 104139 0 pl vol01 03 vol01 ENABLED LOGONLY ACTIVE sd schost 103 02 vol01 03 ENABLED 5 LOG Start the snapshot operation vxassist g schost 1 snapstart vol01 Verify the new volume was created vxprint g schost 1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE dg schost 1 schost 1 dm schost 101 c1t1d0s2 17678493 dm schost 102 c1t2d0s2 17678493 dm schost 103 c2t1d0s2 8378640 dm schost 104 c2t2d0s2 17678493 dm schost 105 c1t3d0s2 17678493 dm schost 106 c2t3d0s2 17678493 Secondary TUTILO TUTILO Cap tulo 12 Copias de seguridad y restauraciones de clusters phys schost 1 PUTILO PUTILO 347 Copia de seguridad de un cl ster v vol01l gen ENABLED 204800 ACTIVE pl vol01 01 voll ENABLED 208331 ACTIVE sd schost 101 01 vol01 01 ENABLED 104139 0 sd schost 102 01 vol01 01 ENABLED 104139 0 pl vol01 02 vol01 ENABLED 208331 ACTIVE sd schost 103 01 vol01 02 ENABLED 103680 0 sd schost 104 01 vol01 02 ENABLED 104139 0 pl vol01 03 vol01 ENABLED LOGONLY ACTIVE sd schost 103 02 vol01 03 ENA
185. 7 zonas no globales 73 arrancar en un modo que no sea de cl ster 84 Asistente para agregar funciones administrativas descripci n 57 atributos Ver propiedades Availability Suite usar para replicaci n de datos 375 B buscar ID de nodo para cl ster de zona 267 ID de nodo para cl ster global 267 nombres de sistema de archivos 338 C cables de transporte agregar 230 233 habilitar 236 inhabilitar 237 cambiar direcci n de servidor de Oracle Solaris Cluster Manager 369 el nombre del cl ster si utiliza Veritas CVM 266 nombre de cl ster 265 nombres de host privados 272 n mero de puerto mediante Common Agent Container 368 protocolo de MIB de eventos de SNMP 289 cambiar el nombre de los nodos en un cl ster de zona 277 en un cl ster global 277 cerrar cl ster de zona 63 87 cl ster global 63 87 nodos 73 87 nodos de cl ster de zona 73 87 nodos de cl ster global 73 87 zonas no globales 73 Mayo de 2011 Revisi n A ndice claves de seguridad regenerar 369 cl ster aplicar parche de rearranque 326 autenticaci n de nodos 267 cambiar el nombre si utiliza Veritas CVM 266 cambiar nombre 265 copia de seguridad 23 establecer la hora del d a 269 hacer copia de seguridad 337 349 restaurar archivos 349 cluster check comando cambia a 45 cl ster de zona administraci n 263 306 apagar 63 87 arrancar 63 87 clonar 295 definici n 18 eliminar un sistema de archivos 295 estado
186. 86 341a 7 1 sd 0 0 a Boot args Type b file name boot flags lt ENTER gt to boot with options or i lt ENTER gt to enter boot interpreter or lt ENTER gt to boot with defaults lt lt lt timeout in 5 seconds gt gt gt Select b oot or i nterpreter b s Use format and newfs to recreate partitions and file systems e Mount the root file system on a temporary mount point mount dev dsk cOt0d0s a Restore the root file system cd a ufsrestore rvf dev rmt 0 rm restoresymtable Install a new boot block usr sbin installboot usr platform uname i lib fs ufs bootblk dev rdsk c0t0d0s0 Remove the lines in temp mountpoint etc system file for MDD root information Begin MDD root info do not edit forceload misc md_trans forceload misc md_raid forceload misc md_mirror forceload misc md_hotspares forceload misc md_stripe forceload drv pcipsy forceload drv glm forceload drv sd rootdev pseudo md 0 0 10 blk End MDD root info do not edit Edit the temp mountpoint etc vfstab file Example Change from dev md dsk d1 dev md rdsk d10 ufs 1 no Change to dev dsk c0t d s0 dev rdsk cotodoso usr ufs 1 no Unmount the temporary file system and check the raw disk device cd umount a Cap tulo 12 Copias de seguridad y restauraciones de clusters 357 Restauraci n de los archivos del cl ster 358 fsck dev rdsk cOt0d0s0
187. BLED 5 LOG pl vol01 04 vol01 ENABLED 208331 SNAPDONE sd schost 105 01 vol01 04 ENABLED 104139 0 sd schost 106 01 vol01 04 ENABLED 104139 0 Stop data services if necessary clresourcegroup offline nfs rg Create a copy of the volume vxassist g schost 1 snapshot vol01 bkup vol Restart data services if necessary clresourcegroup online n phys schost 1 nfs rg Verify bkup vol was created vxprint g schost 1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTILO PUTILO dg schost 1 schost 1 dm schost 101 c1t1d0s2 17678493 v bkup vol gen ENABLED 204800 ACTIVE pl bkup vol 01 bkup vol ENABLED 208331 ACTIVE sd schost 105 01 bkup vol 01 ENABLED 104139 0 sd schost 106 01 bkup vol 1 ENABLED 104139 0 v vol01l gen ENABLED 204800 ACTIVE pl vol01 01 voll ENABLED 208331 ACTIVE sd schost 101 01 vol01 01 ENABLED 104139 0 sd schost 102 01 vol01 01 ENABLED 104139 0 pl vol01 02 vol01 ENABLED 208331 ACTIVE sd schost 103 01 vol01 02 ENABLED 103680 0 sd schost 104 01 vol01 02 ENABLED 104139 0 pl vol01 03 voll ENABLED LOGONLY ACTIVE sd schost 103 02 vol01 03 ENABLED 5 LOG Synchronize the disk group with cluster framework cldevicegroup sync schost 1 Check the file systems fsck y dev vx rdsk schost 1 bkup vol Copy bkup vol to the backup device ufsdump Oucf dev rmt 0 dev vx rdsk schost 1 bkup vol
188. Cluster migra tras error a la sala secundaria posibilita la lectura y escritura en el almacenamiento de la sala secundaria y habilita la migraci n tras error de los grupos de dispositivos y de recursos correspondientes Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Antes de empezar Cuando la sala primaria vuelve a estar en l nea los datos del grupo de dispositivos de SRDF escritos en la sala secundaria se pueden recuperar manualmente y volver a sincronizarse Este procedimiento recupera el grupo de dispositivos de SRDF sincronizando la sala secundaria original este procedimiento emplea phys campus 2 para la sala secundaria con la sala primaria original phys campus 1 El procedimiento tambi n cambia el tipo de grupo de dispositivos de SRDF aRDEI en phys campus 2 y a RDF2 en phys campus 1 Antes de poder realizar manualmente una migraci n tras error debe configurar el grupo de replicaciones de EMC y los dispositivos de DID as como registrar el grupo de replicaciones de EMC Si desea obtener informaci n sobre c mo crear un grupo de dispositivos de Solaris Volume Manager consulte Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la p gina 136 Si desea obtener informaci n sobre c mo crear un grupo de dispositivos de Veritas Volume Manager consulte Creaci n de un nuevo grupo de disc
189. Endpoint1 Cable Endpoint2 Cable State phys schost 1 qfe3 switch2 l phys schost 1 qfe3 switch2 l1 Enabled phys schost 1 hme0 switchlel phys schost 1 hme0 switchlal Enabled phys schost 2 hme switch1 2 phys schost 2 hme0 switchl 2 Enabled phys schost 2 qfe3 switch2 2 phys schost 2 qfe3 switch2 2 Enabled Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster Procedimiento para empezar a administrar el cl ster Transport Switches Transport Switch Switch State Switch Type Switch Port Names Switch Port State 1 Switch Port State 2 Transport Switch Switch State Switch Type Switch Port Names Switch Port State 1 Switch Port State 2 Quorum Devices Quorum Device Name Enabled Votes Global Name Type Access Mode Hosts enabled Quorum Device Name Enabled Votes Global Name Type Hosts enabled Quorum Server Host Port Device Groups Device Group Name Type failback Node List preferenced numsecondaries diskset name Registered Resource Types Resource Type RT_description RT_version API_version RT_basedir Single instance Proxy Init_nodes Installed nodes switch2 Enabled switch 12 Enabled Enabled switchl Enabled switch 12 Enabled Enabled d3 yes 1 dev did rdsk d3s2 scsi scsi2 phys schost 1 phys schost 2 qsl yes 1 qsl quorum server phys schost 1 phys schost 2 10 11 1
190. Este procedimiento muestra c mo cambiar una MIB de eventos de SNMP phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Cap tulo 9 Administraci n del cl ster 289 Informaci n general sobre la administraci n del cl ster 290 Cambie el protocolo de la MIB de eventos de SNMP phys schost 1 clsnmpmib set n node p version value MIB n nodo Especifica el nodo en el que se ubica la MIB del evento que desea cambiar Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual p version valor Especifica la versi n del protocolo SNMP que desea usar con las MIB Especifique el valor tal y como se indica a continuaci n m version SNMPv2 m version snmpv2 m version 2 m version SNMPv3 m version snmpv3 m version 3 MIB Especifica el nombre de la MIB o las MIB a las que hay que aplicar el subcomando En este caso debe especificar el tipo event Si no especifica este operando el subcomando usa el signo m s predeterminado que equivale a todas las MIB Si usa el op
191. Gu a de administraci n del sistema de Oracle Solaris Cluster Referencia E23228 ORACLE Mayo de 2011 Revisi n A Copyright O 2000 2011 Oracle y o sus filiales Todos los derechos reservados Este software y la documentaci n relacionada est n sujetos a un contrato de licencia que incluye restricciones de uso y revelaci n y se encuentran protegidos por la legislaci n sobre la propiedad intelectual A menos que figure expl citamente en el contrato de licencia o est permitido por la ley no se podr utilizar copiar reproducir traducir emitir modificar conceder licencias transmitir distribuir exhibir representar publicar ni mostrar ninguna parte de ninguna forma por ning n medio Queda prohibida la ingenier a inversa desensamblaje o descompilaci n de este software excepto en la medida en que sean necesarios para conseguir interoperabilidad seg n lo especificado por la legislaci n aplicable La informaci n contenida en este documento puede someterse a modificaciones sin previo aviso y no se garantiza que se encuentre exenta de errores Si detecta alg n error le agradeceremos que nos lo comunique por escrito Si este software o la documentaci n relacionada se entrega al Gobierno de EE UU o a cualquier entidad que adquiera licencias en nombre del Gobierno de EE UU se aplicar la siguiente disposici n U S GOVERNMENT RIGHTS Programs software databases and related documentation and technical data delivered to
192. Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster Aplique todos los parches necesarios y recomendados antes de ejecutar el cl ster en un entorno de producci n Compruebe los niveles de hardware del firmware e instale todas las actualizaciones de firmware que puedan ser necesarias Todos los nodos que act en como miembros del cl ster deben tener los mismos parches Mantenga actualizados los parches de subsistema del cl ster Entre otros estos parches incluyen la administraci n de vol menes el firmware de dispositivos de almacenamiento y el transporte del cl ster Revise con regularidad los informes sobre parches por ejemplo una vez por trimestre y aplique el conjunto de parches recomendados en la configuraci n de Oracle Solaris Cluster Aplique parches selectivos conforme a las recomendaciones de Enterprise Services Pruebe la migraci n tras error tras haber aplicado actualizaciones de parches importantes Prep rese para retirar el parche si disminuye el rendimiento del cl ster o si no funciona correctamente Aplicaci n de parches del software Oracle Solaris Cluster TABLA 11 1 Mapa de tareas aplicar parches en el cl ster Tarea Instrucciones Aplicar parches de Oracle Solaris Cluster Aplicaci n de un parche de Oracle Solaris Cluster que no sea de que no sean de rearranque nodo por nodo y rea
193. Herramientas de administraci n de Oracle Solaris Cluster Continuaci n Tarea Herramienta Instrucciones Comprobar el estado de los grupos de varias rutas IP en la red p blica Ver la configuraci n del cl ster Ver y mostrar los dispositivos NAS configurados Comprobar los puntos de montaje globales o verificar la configuraci n del cl ster Examinar el contenido de los registros de comandos de Oracle Solaris Cluster Examinar los mensajes del sistema del Oracle Solaris Cluster Supervisar el estado de Solaris Volume Manager En un cl ster global utilice el comando clnode 1CL status con la opci n m En un cl ster de zona utilice el comando clzonecluster 1CL show En un cl ster global utilice el comando cluster 1CL con el subcomando show En un cl ster de zona utilice el comando clzonecluster 1CL con el subcomando show En un cl ster de zona o en un cl ster global utilice el comando clzonecluster 1CL con el subcomando show En un cl ster global utilice el comando cluster 1CL cluster 1CL con el subcomando check En un cl ster de zona utilice el comando clzonecluster 1CL verify Examine el archivo var cluster logs commandlog Examine el archivo var adm messages Utilice el comando metastat Comprobaci n del estado de la red p blica en la p gina 35 Visualizaci n de la configuraci n del cl ster en la p gina 36 clnasdevice 1CL
194. L clresourcetype 1CL clressharedaddress 1CL clsetup 1CL clsnmphost 1CL clsnmpmib 1CL Inicia el acceso de la consola remota al cl ster Conmuta las direcciones IP de un adaptador a otro en un grupo de varias rutas de red IP Administra pol ticas de acceso de Oracle Solaris Cluster para agregar nodos Administra dispositivos de Oracle Solaris Cluster Administra grupos de dispositivos de Oracle Solaris Cluster Administra la interconexi n de Oracle Solaris Cluster Administra el acceso a los servicios NAS de una configuraci n de Oracle Solaris Cluster Administra nodos de Oracle Solaris Cluster Administra el qu rum de Oracle Solaris Cluster Administra recursos de Oracle Solaris Cluster para nombres de host l gicos Administra recursos de servicios de datos de Oracle Solaris Cluster Administra recursos de servicios de datos de Oracle Solaris Cluster Administra recursos de servicios de datos de Oracle Solaris Cluster Administra recursos de Oracle Solaris Cluster para direcciones compartidas Configura una configuraci n de Oracle Solaris Cluster de forma interactiva Administra hosts SNMP de Oracle Solaris Cluster Administra MIB de SNMP de Oracle Solaris Cluster Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 21 Preparaci n para administrar el cl ster clsnmpuser 1CL Administra usuarios de SNMP de Oracle Solaris Cluster cltelemetryattribute 1CL Configura
195. Laa Sasia aena eiai 233 V Habilitaci n de un cable de transporte de cl ster oo cee eeeeseeseesseesesseeseeatenneateateaneesess 236 V Inhabilitaci n de un cable de transporte de cl ster ssssssssssssseseressessrsstrersrssrrrerrssssrrrrerrssseree 237 Y Determinaci n del n mero de instancia de un adaptador de transporte eee 239 V Modificaci n de la direcci n de red privada o del intervalo de direcciones de un cl ster 240 Administraci n de Tedes p blicas orriei rado dado daa dape 242 Administraci n de grupos de varias rutas de red IP en un cl ster coccoiccinoniccinnoncnnennnnnnnnanss 243 Reconfiguraci n din mica con interfaces de red publica woe cess eeseesesseesesseeseeseetesneesees 244 Contenido 8 Adici n y eliminaci n de UN nodo oo eeeescsesesssssseseseseeeeseseseseseseseseeeeceeeeseseseseseseaneneteeeeeeseaes 247 Adici n de nodos a Un CIUSter eccccccccccesscscscsscscscsscscsscscssssescssssssesscsssscsesssscsesscecsscacseseseasscavsaacaseuses 247 Y Adici n de un nodo a la lista de nodos autorizados 0 248 Creaci n de un nodo sin votaci n zona en un cl ster global 251 Eliminaci n de nodos de un Cluster c cccccccscscssssesesesesesesccsesesesesesesessecsesesesesesescaseceseseseaescasaeeesess 253 V Eliminaci n de un nodo de un cl ster de ZONA cececcscscssssssssssssescscececscseeesesesescecececeeeeeseseseaes 254 V Eliminaci n de un nodo de la configuraci n de software del cluster
196. N permite visualizar los recursos los tipos y los grupos de recursos del cl ster Tambi n permite supervisar los cambios en la configuraci n y comprobar el estado de los componentes del cl ster Sin embargo el m dulo de Oracle Solaris Cluster para Sun Management Center no puede realizar las tareas de configuraci n de Oracle Solaris Cluster Para efectuar las operaciones de configuraci n debe usar la interfaz de l nea de comandos Consulte Interfaz de l nea de comandos en el Cap tulo 1 para obtener m s informaci n Para obtener m s informaci n sobre c mo instalar e iniciar el m dulo de Oracle Solaris Cluster para Sun Management Center consulte el Cap tulo 8 Instalaci n del m dulo de Oracle Solaris Cluster en Sun Management Center de Oracle Solaris Cluster Software Installation Guide El m dulo Oracle Solaris Cluster de Sun Management Center es compatible con el protocolo SNMP Oracle Solaris Cluster ha creado una MIB v lida como definici n de datos por parte de las estaciones de administraci n de otros proveedores basadas en SNMP Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de Oracle Solaris Cluster Manager El archivo de MIB de Oracle Solaris Cluster se ubica en opt SUNWsymon modules cfg sun cluster mib mib en todos los nodos del cl ster El archivo de MIB de Oracle Solaris Cluster es una especificaci n modelada de ASN 1 de los datos de Oracle
197. OL P VOL S VOL P VOL S VOL P VOL 61114 20064 61114 0064 61114 20064 29 58 30 59 31 60 EJEMPLO 5 8 Salida del comando pairdisplay en el nodo 2 con los discos usados pairdisplay fd g VGO1 Group PairVol L R Device File VGO1 VG01 VGO1 VGO1 VG01 VG01 pairl L pairl R pair2 L pair2 R pair3 L pair3 R c5t500060E8000000000000EEBA0000001Dd0s2 c5t50060E800000000000004E600000003Ad0s2 c5t500060E8000000000000EEBA0000001Ed0s2 c5t50060E800000000000004E600000003Bd0s2 c5t500060E8000000000000EEBA0000001Fd0s2 c5t50060E800000000000004E600000003Cd0s2 Seq LDEV P S Status Fence Seq P LDEV M S VOL P VOL S VOL P VOL S VOL P VOL 61114 20064 61114 20064 61114 20064 29 58 30 59 31 60 EJEMPLO 5 9 Salida del comando pairdisplay en el nodo 3 con los discos usados pairdisplay fd g VG01 Group PairVol L R Device File VGO1 VG01 VG01 VGO1 VG01 VG01 pairl L pairl R pair2 L pair2 R pair3 L pair3 R c5t50060E800000000000004E600000003Ad0s2 C6t500060E8000000000000EEBAQ000001Dd0s2 c5t50060E800000000000004E600000003Bd0s2 C6t500060E8000000000000EEBAQ000001Ed0s2 c5t50060E800000000000004E600000003Cd0s2 c6t500060E8000000000000EEBA0000001Fd0s2 PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER PAIR NEVER Seq LDEV P S Status Fence 20064 61114 20064 61114 20064 61114
198. Oracle Solaris Cluster Manager para obtener m s informaci n Sun Java Web Console y Common Agent Container se inician de forma autom tica al arrancar el cl ster Si necesita comprobar que Sun Java Web Console y Common Agent Container est n en funcionamiento consulte la secci n Resoluci n de problemas inmediatamente despu s de este procedimiento Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Inicio del software Oracle Solaris Cluster Manager v Inicio de Oracle Solaris Cluster Manager Este procedimiento muestra c mo iniciar Oracle Solaris Cluster Manager en el cl ster 1 Determine si tiene intenci n de acceder a Oracle Solaris Cluster Manager mediante el nombre y la contrase a del usuario root del nodo del cl ster o de configurar un nombre y una contrase a de usuario diferentes iva a acceder a Oracle Solaris Cluster Manager con el nombre de usuario root del nodo del cl ster vaya al Paso 5 Si pretende configurar un nombre y una contrase a de usuario diferentes vaya al Paso 3 para establecer las cuentas de usuario de Oracle Solaris Cluster Manager 2 Convi rtase en superusuario en un nodo de cl ster 3 Cree una cuenta de usuario para acceder al cl ster mediante Oracle Solaris Cluster Manager Use el comando useradd 1M para agregar una cuenta de usuario al sistema Debe configurarse al menos una cuenta de usuario para acceder a Oracle Solaris Cluster Manager si n
199. Oracle Solaris Cluster Mayo de 2011 Revisi n A Ejecuci n de tareas administrativas del cl ster de zona Ejemplo 9 12 Ejemplo 9 13 Determine la ruta del directorio de punto de montaje de sistemas de archivos Por ejemplo phys schost clzonecluster configure zoneclustername Elimine el sistema de archivos de la configuraci n del cl ster de zona phys schost clzonecluster configure zoneclustername clzc zoneclustername gt remove fs dir filesystemdirectory clzc zoneclustername gt commit El punto de montaje de sistemas de archivos est especificado por dir Compruebe que haya eliminado el sistema de archivos phys schost clzonecluster show v zoneclustername Eliminaci n de un sistema de archivos de alta disponibilidad en un cl ster de zona Este ejemplo muestra c mo eliminar un sistema de archivos con un directorio de punto de montaje local ufs 1 configurado en un cl ster de zona denominado sczone Este recurso es hasp rs y es del tipo de HAStoragePlus phys schost clzonecluster show v sczone Resource Name fs dir local ufs 1 special dev md ds1 dsk d0 raw dev md ds1 rdsk d0 type ufs options logging phys schost clresource delete F Z sczone hasp rs phys schost clzonecluster configure sczone clzc sczone gt remove fs dir local ufs 1 clzc sczone gt commit phys schost clzonecluster show v sczone Eliminaci n de un sistema de archivos ZFS de alta disponibilidad en un cl ster de
200. PROM OpenBoot en un sistema basado en SPARC o con el mensaje Press any key to continuede un men de GRUB en un sistema basado en x86 Agregar o cambiar el nombre de host privado Poner un nodo de cl ster en estado de mantenimiento Cambiar el nombre de un nodo Sacar un nodo del cl ster fuera del estado de mantenimiento Desinstale el software del cl ster de un nodo del cl ster Agregar y administrar una MIB de eventos de SNMP Configurar los l mites de carga de un nodo Mover un cl ster de zona preparar un cl ster de zona para aplicaciones eliminar un cl ster de zona Instrucciones Cap tulo 8 Adici n y eliminaci n de un nodo Cambio del nombre del cl ster en la p gina 265 C mo cambiar el nombre del cl ster si utiliza Veritas CVM en la p gina 266 Asignaci n de un ID de nodo a un nombre de nodo en la p gina 267 Uso de la autenticaci n del nodo del cl ster nuevo en la p gina 267 Restablecimiento de la hora del d a en un cl ster en la p gina 269 SPARC Visualizaci n de la PROM OpenBoot en un nodo en la p gina 271 Adici n un nombre de host privado a un nodo sin votaci n en un cl ster global en la p gina 275 Cambio del nombre de host privado de nodo en la p gina 272 Colocaci n de un nodo en estado de mantenimiento en la p gina 279 C mo cambiar el nombre de un nodo en la p gina 277 Procedimiento para sacar un n
201. Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu c Agregue x al comando para especificar que el sistema arranque en un modo que no sea de cl ster Minimal BASH like line editing is supported For the first word TAB lists possible command completions Anywhere else TAB lists the possible completions of a device filename ESC at any time exits grub edit gt kernel platform i86pc multiboot x d Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los par metros de arranque La pantalla muestra el comando editado GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot x 270 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu e Escriba b para arrancar el nodo en un modo que no sea de cl ster Nota Este cambio en el coma
202. R gt to boot with defaults lt lt lt timeout in 5 seconds gt gt gt Select b oot or i nterpreter b x Enel archivo etc vfstab elimine todas las entradas de sistema de archivos montadas globalmente excepto los montajes globales de global devices Si quiere volver a instalar el software Oracle Solaris Cluster en este nodo elimine la entrada de Oracle Solaris Cluster del registro de productos de Sun Java Enterprise System Java ES Si en el registro de productos de Java ES aparece que se ha instalado el software Oracle Solaris Cluster el programa de instalaci n muestra el componente de Oracle Solaris Cluster atenuado y no permite la reinstalaci n a Inicie el programa de desinstalaci n de Java ES Ejecute el comando siguiente donde ver es la versi n de distribuci n de Java ES desde la que instal el software Oracle Solaris Cluster var sadm prod SUNWentsysver uninstall b Siga los indicadores para seleccionar Oracle Solaris Cluster para desinstalar Para obtener m s informaci n sobre c mo utilizar el comando uninstall consulte el Capitulo 8 Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX Sino tiene previsto volver a instalar el software Oracle Solaris Cluster en este cl ster desconecte los cables y el conmutador de transporte si los hubiera de los otros dispositivos del cl ster a Sielnodo desinstalado est conectado a un dispositivo de almacenamiento que us
203. SNMP Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual a autenticaci n Especifica el protocolo de autenticaci n que se utiliza para autorizar al usuario El valor del protocolo de autenticaci n puede ser SHA 0 MD5 f contrase a Especifica un archivo con las contrase as de usuario de SNMP Si no especifica esta opci n al crear un usuario el comando solicita una contrase a Esta opci n s lo es v lida con el subcomando add Las contrase as de los usuarios deben especificarse en l neas distintas y con el formato siguiente user password Las contrase as no pueden tener espacios ni los caracteres siguientes m punto y coma m dos puntos barra diagonal inversa n linea nueva usuario Especifica el nombre del usuario de SNMP que desea agregar 292 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster Vv Eliminaci n de un usuario de SNMP de un nodo Este procedimiento muestra c mo eliminar un usuario de SNMP de la configuraci n de usuarios de SNMP en un nodo phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de l
204. Si el dispositivo primario falla los datos est n disponibles en el secundario La replicaci n de datos asegura alta disponibilidad y tolerancia ante errores graves del cl ster El software Oracle Solaris Cluster es compatible con los tipos de replicaci n de datos siguientes Entre cl steres use Oracle Solaris Cluster Geographic Edition para recuperar datos en caso de problema grave En un cl ster selo como sustituci n de la duplicaci n basada en host en un cl ster de campus Para llevar a cabo la replicaci n de datos debe haber un grupo de dispositivos con el mismo nombre que el objeto que vaya a replicar Un dispositivo s lo puede pertenecer a un grupo de dispositivos a la vez por eso si ya tiene un grupo de dispositivos de Oracle Solaris Cluster que contiene el dispositivo debe eliminar este grupo antes de agregar el dispositivo al nuevo grupo de dispositivos Para obtener instrucciones sobre c mo crear y administrar grupos de dispositivos de disco de Solaris Volume Manager Veritas Volume Manager ZFS o discos b sicos consulte Administraci n de grupos de dispositivos en la p gina 127 en el Cap tulo 5 Antes de seleccionar el m todo de replicaci n m s apropiado para el cl ster es necesario comprender la replicaci n de datos basada en host y en almacenamiento Para obtener m s informaci n sobre c mo usar Oracle Solaris Cluster Geographic Edition para administrar la replicaci n de datos para recuperaci
205. True nfs dg rs create Crea el recurso 9 Especifica el grupo de recursos en el que se agrega el recurso t SUNW HAStoragePlus Especifica que el recurso es del tipo SUNW HAStoragePlus p FileSystemMountPoints global Especifica que el punto de montaje del sistema de archivos es global p AffinityOn True Especifica que el recurso de aplicaciones debe efectuar una conmutaci n de afinidad en los dispositivos globales y en los sistemas de archivos del cl ster definidos por p GlobalDevicePaths Por lo tanto si el grupo de recursos de aplicaciones migra tras error o se conmuta el grupo de dispositivos asociados tambi n se conmuta nfs dg rs El nombre del recurso de amp HAStoragePlus para la aplicaci n NFS Para obtener m s informaci n sobre estas propiedades de extensi n consulte la pagina de comando man SUNW HAStoragePlus 5 Agregue un recurso de nombre de host l gico al grupo de recursos de aplicaciones nodeA clreslogicalhostname create g nfs rg Y lhost nfsrg prim El nombre de host l gico del grupo de recursos de aplicaciones del cl ster primario es lhost nfsrg prim Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes Vv Antes de empezar Habilite los recursos administre el grupo de recursos de aplicaciones y deje en l nea el grupo d
206. a acceder globalmente Convi rtase en superusuario en un nodo de cl ster Inicie la utilidad clsetup clsetup Anule la configuraci n de la propiedad localonly a Elijala opci n del men Grupos de dispositivos y vol menes b Elija la opci n del men Restablecer un grupo de discos local a un grupo de dispositivos de VxVM Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 153 cl ster Administraci n de grupos de dispositivos 154 c Siga las instrucciones para anular la configuraci n de la propiedad localonly Especifique los nodos que pueden actuar controlar el grupo de discos a Vuelva al men principal de la utilidad clsetup b Elija la opci n del men Grupos de dispositivos y vol menes A Elija la opci n del men para registrar un grupo de discos o Siga las instrucciones para especificar los nodos que pueden controlar el grupo de discos p Cuando haya terminado salga de la utilidad clsetup Compruebe que se haya configurado el grupo de dispositivos phys schost cldevicegroup show Conversion de un grupo de dispositivos en un grupo de discos local VxVM Siga este procedimiento para convertir un grupo de dispositivos de VxVM en un grupo de discos de VxVM local no administrado por el software Oracle Solaris Cluster El grupo de discos local puede tener mas de un nodo en su lista de nodos pero s lo lo puede controlar un
207. a de la informaci n caducada sobre cl sters del servidor de qu rum Para eliminar un dispositivo de qu rum del tipo quorumserver use el comando clquorum remove como se describe en Eliminaci n de un dispositivo de qu rum en la p gina 208 En condiciones normales de funcionamiento este comando tambi n elimina la informaci n del servidor de qu rum relativa al host del servidor de qu rum Sin embargo si el cl ster pierde la comunicaci n con el host del servidor de qu rum al eliminar el dispositivo de qu rum dicha informaci n no se limpia Cap tulo6 Administraci n de qu rum 223 Administraci n de servidores de qu rum de Oracle Solaris Cluster A v Antes de empezar A 224 La informaci n sobre los cl sters del servidor de qu rum perder su validez en los casos siguientes Cuando un cl ster se anula sin que antes se haya eliminado dispositivo de qu rum del cl ster mediante el comando clquorum remove Cuando un dispositivo de qu rum del tipo quorum_server se elimina de un cl ster mientras el host del servidor de qu rum est detenido Precauci n Si un dispositivo de qu rum del tipo quorumserver servidor de qu rum a n no se ha eliminado del cl ster utilizar este procedimiento para limpiar un servidor de qu rum v lido puede afectar negativamente al qu rum del cl ster Limpieza de la informaci n de configuraci n del servidor de qu rum Quite el dispositivo de qu rum del cl
208. a informaci n de la versi n de Oracle Solaris Cluster y de los paquetes Tenga tambi n disponible el contenido del archivo var adm messages 16 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 1 Introducci n a la administraci n de Oracle Solaris Cluster Este cap tulo ofrece la informaci n siguiente sobre la administraci n de cl steres globales y de zona Adem s brinda procedimientos para utilizar las herramientas de administraci n de Oracle Solaris Cluster Introducci n a la administraci n de Oracle Solaris Cluster en la p gina 18 Restricciones de las funciones del sistema operativo Oracle Solaris en la p gina 19 Herramientas de administraci n en la p gina 20 Preparaci n para administrar el cl ster en la p gina 22 Procedimiento para empezar a administrar el cl ster en la p gina 24 Todos los procedimientos indicados en esta gu a son para el uso en el sistema operativo Oracle Solaris 10 Los cl steres globales se componen s lo de uno o varios nodos de votaci n de cl ster global y de forma opcional por cero o m s nodos sin votaci n de cl ster global Un cl ster global puede incluir de forma opcional el sistema operativo LINUX o marca nativa zonas no globales que no son nodos pero que contienen alta disponibilidad como recursos Un cl ster de zona precisa de un cl ster global Si desea obtener informaci n general
209. a primaria pairdisplay g group name cldevicegroup status n nodename group name Compruebe que la propiedad de replicaci n est configurada para el grupo de dispositivos cldevicegroup show n nodename group name Compruebe que la propiedad replicada est configurada para el dispositivo usr cluster bin cldevice status s state n node disk device Realice una conmutaci n de prueba para asegurarse de que los grupos de dispositivos est n bien configurados y que las r plicas puedan desplazarse de unos nodos a otros Si el grupo de dispositivos est fuera de l nea p ngalo en l nea cldevicegroup switch n nodename group name nnombre_nodo El nodo al que se conmuta el grupo de dispositivos Este nodo se convierte en el nuevo nodo primario Compruebe que la conmutaci n haya sido correcta Para ello compare la salida de los comandos siguientes pairdisplay g group name cldevicegroup status n nodename group name Ejemplo Configuraci n de un grupo de replicaciones de TrueCopy para Oracle Solaris Cluster En este ejemplo se realizan todos los pasos de Oracle Solaris Cluster necesarios para configurar una replicaci n de TrueCopy en el cl ster En el ejemplo se supone que ya se han realizado las tareas siguientes Se han configurado los LUN de Hitachi Se ha instalado el software de TrueCopy en los nodos del cl ster y el dispositivo de almacenamiento Sehan configurado los pares de r
210. a ruta establezca el atributo monitored en true tal y como se explica a continuaci n Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la supervisi n de rutas de disco V ase tambi n lt xml version 1 0 gt lt DOCTYPE cluster SYSTEM usr cluster lib xml cluster dtd gt lt cluster name brave_clus gt lt deviceList readonly true gt lt device name d3 ctd c1t8d0 gt lt devicePath nodeRef phys schost 1 monitored true gt lt devicePath nodeRef phys schost 2 monitored true gt lt device gt lt deviceList gt lt cluster gt Use el comando cldevice para leer el archivo y activar la supervisi n cldevice monitor i deviceconfig Use el comando cldevice para comprobar que el archivo ya se est supervisando cldevice status Si desea obtener m s informaci n sobre c mo exportar la configuraci n del cluster y usar el archivo XML resultante para establecer la configuraci n del cl ster consulte las p ginas de comando man cluster 1CL y clconfiguration 5CL Habilitaci n del rearranque autom tico de un nodo si fallan todas las rutas de disco compartido supervisadas Al habilitar esta funci n un nodo se rearranca autom ticamente siempre que se cumplan las condiciones siguientes m Fallan todas las rutas de disco compartido supervisadas del nodo Se puede acceder a uno de los discos como m nimo desde un nodo diferent
211. a un sistema de archivos de cl ster UFS montado en el metadispositivo o el volumen de Solaris Volume Manager dev md oracle rdsk d1 mount v global oracle d1 on dev md oracle dsk d1 read write setuid global logging largefiles fuser c global oracle d1 global oracle d1 4006c fuser c k global oracle d1 global oracle d1 4006c fuser c global oracle d1 Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 183 cl ster Administraci n de la supervisi n de rutas de disco global oracle dl umount global oracle dl On each node remove the highlighted entry vi etc vfstab device device mount FS fsck mount mount to mount to fsck point type pass at boot options dev md oracle dsk d1 dev md oracle rdsk d1 global oracle dl ufs 2 yes global Logging Save and exit Para borrar los datos del sistema de archivos de cluster elimine el dispositivo subyacente Para obtener m s informaci n consulte la documentaci n del administrador de vol menes Comprobaci n de montajes globales en un cl ster La utilidad cluster 1CL comprueba la sintaxis de las entradas de sistemas de archivos de cl ster en el archivo etc vfstab Si no hay ning n error el comando no devuelve nada Nota Ejecute el comando cluster check tras realizar modificaciones en la configuraci n por ejemplo como quitar un sistema de archivos de cl ster que puedan hab
212. a una interfaz SCSI paralelo instale un terminador de SCSI al conector de SCSI del dispositivo de almacenamiento despu s de haber desconectado los cables de transporte Si el nodo desinstalado est conectado a un dispositivo de almacenamiento que usa interfaces de canal de fibra el cierre no es necesario Cap tulo 9 Administraci n del cl ster 285 Informaci n general sobre la administraci n del cl ster 286 b Consulte la documentaci n suministrada con el adaptador del sistema y el servidor respecto alos procedimientos de desconexi n Consejo Si usa un dispositivo de interfaz de archivo de bucle invertido lofi el programa de desinstalaci n de Java ES elimina de forma autom tica el archivo lofi que se denomina globaldevices Para obtener m s informaci n c mo migrar un espacio de nombres de dispositivos globales a un lofi consulte Migraci n del espacio de nombre de dispositivos globales en la p gina 132 Soluci n de problemas de la desinstalaci n de nodos Esta secci n describe los mensajes de error que pueden generarse al ejecutar el comando clnode remove ylas medidas correctivas que debe utilizar Entradas no eliminadas del sistema de archivos de cl ster Los mensajes de error siguientes indican que el nodo del cl ster global que ha eliminado todav a tiene sistemas de archivo del cl ster referenciados en el archivo vfstab Verifying that no unexpected global mounts remain in etc vfstab
213. aci n remota se puede efectuar de manera sincr nica en tiempo real o de manera asincr nica Cada volumen definido en cada cl ster se puede configurar de manera individual para replicaci n sincr nica o asincr nica a Enla replicaci n sincr nica de datos no se confirma la finalizaci n de la operaci n de escritura hasta que el volumen remoto se haya actualizado a Enla replicaci n asincr nica de datos se confirma la finalizaci n de la operaci n de escritura antes de que se actualice el volumen remoto La replicaci n asincr nica de datos proporciona una mayor flexibilidad en largas distancias y poco ancho de banda Instant nea de un momento determinado La Figura A 2 muestra instant nea de un momento determinado Los datos del volumen primario de cada disco se copian en el volumen sombra del mismo disco El mapa de bits instant neo controla y detecta las diferencias entre el volumen primario y el volumen sombra Cuando los datos se copian en el volumen sombra el mapa de bits de un momento determinado se vuelve a configurar Ap ndice A Ejemplo 377 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite FIGURA A 2 Instant nea de un momento determinado Disco principal Disco secundario Los bloques de datos actualizados se copian peri dicamente y en el volumen sombra j Volumen va oS Volumen primario primario gt Volumen t sombra p Xp sombra J Volumen de
214. aciones Use estas directrices cuando est configurando la replicaci n de datos en el cl ster En esta secci n se analizan los aspectos siguientes Configuraci n de grupos de recursos de replicaciones en la p gina 380 Configuraci n de grupos de recursos de aplicaciones en la p gina 380 Configuraci n de grupos de recursos en una aplicaci n de migraci n tras error en la p gina 381 Configuraci n de grupos de recursos en una aplicaci n escalable en la p gina 382 Directrices para administrar migraciones tras error en la p gina 383 Ap ndice A Ejemplo 379 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 380 Configuraci n de grupos de recursos de replicaciones Los grupos de recursos de replicaciones sit an al grupo de dispositivos bajo el control del software amp AvailSuite con el recurso de nombre de host l gico Un grupo de recursos de replicaciones debe tener las caracter sticas siguientes Ser un grupo de recursos de migraci n tras error Un recurso de migraci n tras error s lo puede ejecutarse en un nodo a la vez Cuando se produce la migraci n tras error los recursos de recuperaci n participan en ella Debe haber un recurso de nombres de host l gico El cl ster primario debe alojar el nombre de host l gico Despu s de una migraci n tras error el cl ster secundario debe alojar el nombre de host l
215. acle Solaris Cluster 3 x are supported as Oracle Solaris Cluster 3 x nodes RECOMMEND Because the list of supported servers is always being updated check with your Oracle representative to get the latest information on what servers Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster 51 Procedimiento para empezar a administrar el cl ster are currently supported and only use a server that is supported with Oracle Solaris Cluster 3 x 52 Visualizacion del contenido de los registros de comandos de Oracle Solaris Cluster El archivo de texto ASCII var cluster logs commandlog contiene registros de comandos de Oracle Solaris Cluster seleccionados que se ejecutan en un cl ster Los comandos comienzan a registrarse autom ticamente al configurarse el cl ster y la operaci n se finaliza al cerrarse el cl ster Los comandos se registran en todos los nodos activos y que se han arrancado en modo de cl ster Entre los comandos que no quedan registrados en este archivo est n los encargados de mostrar la configuraci n y el estado actual del cl ster Entre los comandos que quedan registrados en este archivo est n los encargados de configurar y modificar el estado actual del cl ster m claccess m cldevice m cldevicegroup m clinterconnect m clnasdevice m clnode m clquorum m clreslogicalhostname m clresource m clresourcegroup m clresourcetype m clressharedaddress m clsetup clsnmphost c
216. adm 1M para obtener mas informacion sobre el daemon del protocolo NTP phys schost svcadm disable ntp Ejecute la utilidad clsetup 1CL para cambiar el nombre de host privado del nodo correspondiente Ejecute la utilidad desde uno de los nodos del cl ster Nota Cuando seleccione un nombre nuevo para el sistema privado compruebe que no se utilice en el nodo del cl ster Escriba el n mero correspondiente a la opci n del nombre de host privado Escriba el n mero correspondiente a la opci n de cambiar el nombre de host privado Responda a las preguntas cuando se indique Se le solicitar el nombre del nodo cuyo nombre de host privado desee cambiar clusternode lt idnodo gt priv as como el nombre de host nuevo para el sistema privado Purgue la memoria cach del servicio de nombres Efect e este paso en todos los nodos del cl ster La purga evita que las aplicaciones del cl ster y los servicios de datos intenten acceder al nombre de host privado anterior phys schost nscd i hosts Capitulo9 Administraci n del cl ster 273 Informaci n general sobre la administraci n del cl ster 7 Siha cambiado un nombre de host privado en el archivo de configuraci n de NTP actualice el archivo de configuraci n de NTP ntp conf o ntp conf cluster en todos los nodos a Usela herramienta de edici n que prefiera Si efect a este paso durante la instalaci n recuerde eliminar los nombres de los nodos que est
217. administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris Consulte tambi n clnode 1CL shutdown 1M y clzonecluster 1CL En los procedimientos tratados en este cap tulo phys schost refleja una solicitud de cl ster global El indicador de solicitud de shell interactivo de clzonecluster es clzc schost gt Cap tulo 3 Cierre y arranque de un cl ster 73 Cierre y arranque de un solo nodo de un cl ster 74 TABLA 3 2 Mapa de tareas cerrar y arrancar un nodo Tarea Detener un nodo Herramienta Para los nodos del cl ster Instrucciones Cierre de un nodo en la p gina 74 Arrancar un nodo El nodo debe disponer de una conexi n operativa con la interconexi n de cl ster para poder convertirse en miembro de este ltimo Detener y reiniciar rearrancar un nodo de un cl ster El nodo debe disponer de una conexi n operativa con la interconexi n de cl ster para poder convertirse en miembro de este ltimo Arrancar un nodo de manera que no participe como miembro en el cl ster global use clnode 1CL evacuate y shutdown Para los nodos de un cl ster de zona use clzonecluster 1CL halt Para los nodos del cl ster global use boot o b Para los nodos de un cl ster de zona use clzonecluster 1CL boot Para un nodo del cl ster global use clnode evacuate y shutdown seguidos de boot ob Para un nodo de un cluster de zona use clzonecluster 1CL
218. ado el host de SNMP n nodo Especifica el nombre del nodo en el que se ha eliminado de la configuraci n el host de SNMP Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual host Especifica el nombre la direcci n IP o la direcci n IPv6 del host que se ha eliminado de la configuraci n Cap tulo 9 Administraci n del cl ster 291 Informaci n general sobre la administraci n del cl ster Para eliminar todos los sistemas de la comunidad SNMP especificada use un signo m s para el host con la opci n c Para eliminar todos los sistemas use el signo m s para el host Y Adici n de un usuario de SNMP a un nodo Este procedimiento muestra c mo agregar un usuario de SNMP a la configuraci n de usuarios de SNMP en un nodo phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos 1 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify 2 Agregue el usuario de SNMP phys schost 1 clsnmpuser create n node a authentication f password user n nodo Especifica el nodo en el que se ha agregado el usuario de
219. ajes de error en el archivo var adm messages que con el paso del tiempo puede llegar a ocupar totalmente el sistema de archivos var Si el sistema de archivos var alcanza su l mite de capacidad es posible que Oracle Solaris Cluster no pueda reiniciarse en ese nodo Adem s es posible que no pueda iniciarse sesi n en ese nodo v Reparaci n de un sistema de archivos var que haya alcanzado el l mite de capacidad Si un nodo emite un informe que anuncia que el sistema de archivos var ha alcanzado su l mite de capacidad y contin a ejecutando servicios de Oracle Solaris Cluster use este procedimiento para borrar el sistema de archivos Si desea obtener m s informaci n consulte Visualizaci n de los mensajes del sistema de Gu a de administraci n del sistema Administraci n avanzada 1 Convi rtase en superusuario en el nodo del cl ster cuyo sistema de archivos var haya alcanzado el l mite de capacidad 2 Borre todo el sistema de archivos Por ejemplo elimine los archivos prescindibles que haya en dicho sistema de archivos Cap tulo 3 Cierre y arranque de un cl ster 87 88 CAP TULO 4 M todos de replicaci n de datos Este cap tulo describe las tecnolog as de replicaci n de datos que puede usar con el software Oracle Solaris Cluster La replicaci n de datos es un procedimiento que consiste en copiar datos de un dispositivo de almacenamiento primario a un dispositivo secundario o de copia de seguridad
220. al oncoioniiniininninnncnnncscraces 302 Restauraci n de un conjunto de discos da ado sssini 303 10 Configuraci n del control del uso dela CPU ooo eee cecceseesesseseesesesesesseseesceeesesesnsneseeeeeeseeneeeanees 307 Introducci n al control dela CPU inicia ii an 307 Elecci n de una situaci n hipotetica wc essesecseseseseeseeeeseeeeeesesesneseeeeeseessaesnenseeeteseaeeneaeeees 307 Planificador por reparto equitativO oo essesssnessesseeseestessestesscenseseeneesesatenssaeseensesrensestenses 308 Configuraci n del control dela CPU cronicas imc 309 Y Control del uso de la CPU en el nodo de votaci n de un cl ster global oonciciicinciciinnnninns 309 Y Control del uso de la CPU en un nodo sin votaci n de cl ster global con el conjunto de procesadores predeterminado userni iaiia aia 311 Control del uso de la CPU en un nodo sin votaci n de cl ster global con un conjunto de procesadores dedicado siii did 314 11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster Informaci n general sobre aplicaci n de parches de Oracle Solaris Cluster coccion Sugerencias sobre los parches de Oracle Solaris Cluster 0 0 Aplicaci n de parches del software Oracle Solaris Cluster cccsceessessesseseessessesseestessessesneeeenes V Aplicaci n de un parche de rearranque nodo sisssisiesssesssissisnsssericusisssssiicusiisesiusssnssdeniesesnssss V Aplicaci n de un parche de rearranque Cl Ster cono
221. al Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Eliminaci n de nodos de un cl ster Cierre el nodo del cl ster de zona que desee eliminar para ello especifique el nodo y su cl ster de zona phys schost clzonecluster halt n node zoneclustername Tambi n puede utilizar los comandos clnode evacuate y shutdown dentro del cluster de zona Desinstale el nodo del cluster de zona phys schost clzonecluster uninstall n node zoneclustername Elimine el nodo del cl ster de zona de la configuraci n Use los comandos siguientes phys schost clzonecluster configure zoneclustername clzc sczone gt remove node physical host zoneclusternodename Compruebe que el nodo se haya eliminado del cl ster de zona phys schost clzonecluster status Eliminaci n de un nodo de la configuraci n de software del cl ster Siga este procedimiento para eliminar un nodo del cl ster global phys schost t refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Compruebe que haya eliminado el nodo de todos los grupos de recursos grupos de dispositivos y configuraciones de dispositivo de qu rum y establ zcalo en estado de mantenimi
222. al sobre la administraci n del cl ster Habilite la MIB de eventos de SNMP phys schost 1 clsnmpmib enable n node MIB n nodo Especifica el nodo en el que se ubica la MIB del evento que desea habilitar Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual MIB Especifica el nombre de la MIB que desea habilitar En este caso el nombre de la MIB debe ser event Inhabilitaci n de una MIB de eventos de SNMP Este procedimiento muestra c mo inhabilitar una MIB de eventos de SNMP phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Inhabilite la MIB de eventos de SNMP phys schost 1 clsnmpmib disable n node MIB n nodo Especifica el nodo en el que se ubica la MIB del evento que desea inhabilitar Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual MIB Especifica el tipo de MIB que desea inhabilitar En este caso debe especificar el tipo event Cambio de una MIB de eventos de SNMP
223. ales correspondiente debe volver a ejecutar el comando cldevice replicate para actualizar la informaci n sobre el dispositivo replicado SRDF Si se cambia el nombre del grupo de dispositivos de replicaci n y el del grupo de dispositivos globales correspondiente debe actualizar la informaci n del dispositivo replicado con el comando scdidadm b para eliminar la informaci n ya presente El ltimo paso consiste en emplear el comando cldevice combine para crear un dispositivo actualizado Compruebe que se hayan combinado las instancias de DID cldevice list v device Compruebe que est configurada la replicaci n de SRDF cldevice show device Compruebe que en todos los nodos se pueda tener acceso alos dispositivos de DID de todas las instancias de DID combinadas cldevice list v Tras configurar el controlador de identificador de dispositivos DID empleado por el dispositivo replicado compruebe la configuraci n del grupo de dispositivos globales replicado con EMC SRDE Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Vv Antes de empezar Comprobaci n de la configuraci n de un grupo de dispositivos globales replicado con EMC SRDF Antes de poder comprobarse es preciso crear el grupo de dispositivos globales Puede usar grupos de dispositivos de Solaris Volume Manager Veritas Volume Manager ZFS o di
224. all applications and data services disabled at the beginning of the procedure 274 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster v Adici n un nombre de host privado a un nodo sin votaci n en un cl ster global Siga este procedimiento para agregar un nombre de host privado a un nodo sin votaci n en un cl ster global una vez finalizada la instalaci n En los procedimientos tratados en este cap tulo phys schost refleja una solicitud de cl ster global Realice este procedimiento s lo en un cl ster global 1 Ejecute la utilidad clsetup 1CL para agregar un nombre de host privado a la zona adecuada phys schost clsetup 2 Escriba el n mero correspondiente a la opci n de nombres de host privados y pulse la tecla Intro 3 Escriba el n mero correspondiente a la opci n de agregar un nombre de host privado de zona y pulse la tecla Intro Responda a las preguntas cuando se indique No existe un nombre predeterminado para el sistema privado de un nodo sin votaci n del cl ster global Se debe proporcionar un nombre de host v Cambio del nombre de host privado en un nodo sin votaci n de un cl ster global Siga este procedimiento para cambiar el nombre de host privado de un nodo sin votaci n una vez finalizada la instalaci n Durante la instalaci n inicial del cl ster se asignan nombre de host privados El nombre de hos
225. amiento dentro de A NON 94 Problemas de recuperaci n manual al usar una replicaci n de datos basada en almacenamiento dentro de Un cl ster sviece sod sasiieosenseasedeases 95 Pr cticas recomendadas al usar la replicaci n de datos basada en almacenamiento 96 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Contenido 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de O O 97 Informaci n general sobre la administraci n de dispositivos globales y el espacio de nombre MD ii A ias 97 Permisos de dispositivos globales en Solaris Volume Manager c oomecioninninncennnanacncnss 98 Reconfiguraci n din mica con dispositivos globales sssssssssssssssrssssssessrrrrsrsssrrtrerssssnrrrrerssss 98 Aspectos que tener en cuenta en la administraci n de Veritas Volume Manager 100 Administraci n de dispositivos replicados basados en almacenamiento mccnciniininnncncms 101 Administraci n de dispositivos replicados mediante Hitachi TrueCopy 0 eee 101 Administraci n de dispositivos replicados de EMC Symmetrix Remote Data Facility 113 Informaci n general sobre la administraci n de sistemas de archivos de clusters 10 125 Restricciones del sistema de archivos de clUister navcrrcnonorsuonsminarsvananoanausi 125 Directrices parar ad DIF VICES sidad E 126 Administraci n de grupos de dispositivOS sessrinonsraramnarskoniisn
226. anaged False phys schost 2 phys schost 1 qfs res SUNW qfs 3 1 qfs rg default True True True True v Comprobaci n del estado de los componentes del cl ster Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n 32 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Antes de empezar Ejemplo 1 4 Nota El comando cluster status tambi n muestra el estado de un cl ster de zona phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Todos los usuarios necesitan la autorizaci n RBAC solaris cluster read para utilizar el subcomando status menos el superusuario Compruebe el estado de los componentes del cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global phys schost cluster status Comprobaci n del estado de los componentes del cl ster El ejemplo siguiente es una muestra de la informaci n del estado de los componentes del cl ster devuelta por cluster 1CL status
227. ando clquorum 1CL Reconfiguraci n din mica con dispositivos de qu rum Debe tener en cuenta diversos aspectos al desarrollar operaciones de reconfiguraci n din mica o DR Dynamic Reconfiguration en los dispositivos de qu rum de un cl ster Todos los requisitos los procedimientos y las restricciones documentados sobre la reconfiguraci n din mica de Oracle Solaris tambi n son v lidos para la reconfiguraci n din mica en Oracle Solaris Cluster excepto la inactividad del sistema operativo Por lo tanto consulte la documentaci n sobre la reconfiguraci n din mica de Oracle Solaris antes de utilizarla con el software Oracle Solaris Cluster Preste especial atenci n a los problemas que afecten a los dispositivos de E S no conectados a red durante las operaciones de desconexi n de reconfiguraci n din mica Oracle Solaris Cluster rechaza operaciones de eliminaci n de tarjetas de DR efectuadas cuando hay una interfaz configurada para un dispositivo de qu rum Sila operaci n de DR pertenece a un dispositivo activo Oracle Solaris Cluster rechaza la operaci n e identifica a los dispositivos que se ver an afectados por ella Para eliminar un dispositivo de qu rum complete los pasos siguientes en el orden que se indica TABLA 6 2 Mapa de tareas reconfiguraci n din mica con dispositivos de qu rum Tarea Instrucciones 1 Habilitar un nuevo dispositivo de Adici n de un dispositivo de qu rum en la p gina
228. ando clzonecluster reboot phys schost clzonecluster halt sparse sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster sparse sczone Sep 5 19 17 46 schost 4 cl_runtime NOTICE Membership Node 4 of cluster sparse sczone died Capitulo3 Cierre y arranque de un cl ster 71 Descripci n general sobre el cierre y el arranque de un cl ster Sep 5 19 17 46 schost 4 cl_runtime NOTICE Sep 5 19 17 46 schost 4 cl_runtime NOTICE Sep 5 19 17 46 schost 4 cl_runtime NOTICE phys schost phys schost clzonecluster boot sparse sczone Membership Node 2 of cluster sparse sczone died Membership Node 1 of cluster sparse sczone died Membership Node 3 of cluster sparse sczone died Waiting for zone boot commands to complete on all the nodes of the zone cluster sparse sczone phys schost Sep 5 19 18 23 schost 4 cl runtime NOTICE Membership Node 1 of cluster sparse sczone joined Sep 5 19 18 23 schost 4 cl_runtime NOTICE Sep 5 19 18 23 schost 4 cl_runtime NOTICE Sep 5 19 18 23 schost 4 cl_runtime NOTICE phys schost phys schost clzonecluster status Zone Clusters Zone Cluster Status Name Node Name Zone HostName sparse sczone schost 1 sczone 1 schost 2 sczone 2 schost 3 sczone 3 schost 4 sczone 4 phys schost Membership Node 2 of cluster sparse sczone joined Membership Node 3 of cluster sparse sczone joined Membership Node 4 of
229. ar otros grupos de discos de VxVM consulte Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager en la p gina 141 100 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Administraci n de dispositivos replicados basados en almacenamiento Puede configurar un grupo de dispositivos de Oracle Solaris Cluster para que contenga dispositivos que se repliquen mediante la replicaci n basada en almacenamiento Oracle Solaris Cluster admite el uso de Hitachi TrueCopy y EMC Symmetrix Remote Data Facility para la replicaci n basada en almacenamiento Antes de poder replicar datos con Hitachi TrueCopy o EMC Symmetrix Remote Data Facility debe familiarizarse con la documentaci n sobre replicaci n basada en almacenamiento y tener instalados en el sistema el producto de replicaci n basada en almacenamiento y sus parches m s actuales Si desea obtener informaci n sobre c mo instalar el software de replicaci n basada en almacenamiento consulte la documentaci n del producto El software de replicaci n basada en almacenamiento configura un par de dispositivos como r plicas un dispositivo como r plica primaria y el otro como r plica secundaria En un determinado momento el dispositivo conectado a un conjunto de nodos convierte en la r plica primaria El dispositivo conectado a otro conjunto de nodo
230. ar pares de r plicas consulte la documentaci n de SRDE Compruebe que la replicaci n de datos est correctamente configurada en cada nodo configurado con dispositivos replicados usr symcli bin symdg show group name Realice un intercambio del grupo de dispositivos a Compruebe que las r plicas primaria y secundaria est n sincronizadas usr symcli bin symrdf g group name verify synchronized b Determine los nodos que contienen la r plica primaria y la secundaria Para ello ejecute el comando symdg show usr symcli bin symdg show group name El nodo con el estado de dispositivo de RDF1 contiene la r plica primaria el nodo con el estado de dispositivo de RDF2 contiene la r plica secundaria c Habilite la r plica secundaria usr symcli bin symrdf g group name failover d Intercambie los dispositivos de RDF1 y RDF2 usr symcli bin symrdf g group name swap refresh R1 e Habilite el par de r plicas usr symcli bin symrdf g group name establish f Compruebe que el nodo primario y las r plicas secundarias est n sincronizados usr symcli bin symrdf g group name verify synchronized Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Pasos siguientes Antes de empezar Repita todo el paso 5 en el nodo que conten a originalmente la r plica primaria Tras haber configurado
231. ara garantizar que este nodo no preste servicio a los dispositivos globales mientras se realice este procedimiento Para obtener instrucciones consulte Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 Desmonte el sistema de archivos del dispositivo global y desconecte el dispositivo lofi El sistema de archivos de dispositivos globales se monta de forma local phys schost umount global devices node clinfo n gt dev null 2 gt amp 1 Ensure that the lofi device is detached phys schost lofiadm d globaldevices The command returns no output if the device is detached Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 131 cl ster Administraci n de grupos de dispositivos Nota Si el sistema de archivos se monta mediante la opci n m opci n no se agregar ninguna entrada archivo mnttab El comando umount puede mostrar una advertencia similar a la siguiente umount warning global devices node 2 not in mnttab gt gt gt gt not mounted Puede ignorar esta advertencia 4 Elimine y vuelva a crear el archivo globaldevices con el tama o necesario En el siguiente ejemplo se muestra la creaci n de un archivo globaldevices cuyo tama o es de 200 MB phys schost rm globaldevices phys schost mkfile 200M globaldevices 5 Cree un sistema de archivos para el espacio de nombres de dispositivos globales phys scho
232. aris Cluster con las interfaces gr ficas de usuario si desea obtener m s informaci n o para ver los procedimientos de configuraci n de Oracle Solaris Cluster Manager y Sun Management Center Si desea obtener informaci n espec fica sobre el uso de Oracle Solaris Cluster Manager consulte la ayuda en l nea de la GUI Interfaz de l nea de comandos La mayor a de las tareas de administraci n de Oracle Solaris Cluster se pueden efectuar de forma interactiva con la utilidad clsetup 1CL Siempre que sea posible los procedimientos de administraci n detallados en esta gu a emplean la utilidad clsetup La utilidad cl setup permite administrar los elementos siguientes del men principal Qu rum Grupos de recursos Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Herramientas de administraci n Servicios de datos interconexi n de cl ster Nombres de host privados Nuevos nodos Otras tareas del cl ster Grupos de dispositivos y vol menes En la lista que se muestra a continuaci n figuran otros comandos utilizados para la administraci n de una configuraci n de Oracle Solaris Cluster Consulte las p ginas de comando man si desea obtener informaci n m s detallada ccp 1M if_mpadm 1M claccess 1CL cldevice 1CL cldevicegroup 1CL clinterconnect 1CL clnasdevice 1CL clnode 1CL clquorum 1CL clreslogicalhostname 1CL clresource 1CL clresourcegroup 1C
233. arrancar el sistema La pr xima vez que rearranque el nodo lo har en modo de cl ster Para arrancarlo en el modo que no es de cl ster realice estos pasos de nuevo para agregar la opci n sx al comando del par metro de arranque del n cleo Aplique el parche de software o firmware patchadd M patch dir patch id dir_parche Especifica la ubicaci n del directorio del parche id_parche Especifica el n mero de parche de un parche concreto Nota Siga siempre las instrucciones del directorio de parches que sustituyen los procedimientos de este cap tulo Compruebe que el parche se haya instalado correctamente showrev p grep patch id Rearranque el nodo en el cl ster reboot Compruebe que funcione el parche y que el nodo y el cl ster funcionen correctamente Repita del Paso 2 al Paso 10 con todos los dem s nodos del cl ster Conmute los grupos de recursos y de dispositivos como sea necesario Despu s de haber rearrancado todos los nodos el ltimo de ellos no tiene los grupos de recursos ni de dispositivos en l nea cldevicegroup switch n node devicegroup clresourcegroup switch n node zone resource group nodo Elnombre del nodo al que est conmutando los grupos de recursos y de dispositivos zona Elnombre del nodo sin votaci n de cl ster global node que puede controlar el grupo de recursos Especifique la zona s lo si ha proporcionado un nodo sin votaci n al Guia de a
234. arse todos los nodos En este ejemplo el indicador ok no se aparece en todos los nodos La opci n g establece el per odo de gracia para el cierre en cero la opci n y proporciona una respuesta yes autom tica para la pregunta de confirmaci n Los mensajes de cierre tambi n aparecen en las consolas de los otros nodos del cl ster global phys schost cluster shutdown g0 y May 2 10 32 57 phys schost 1 cl_runtime WARNING CMM Monitoring disabled root phys schost 1 INIT New run level 0 The system is coming down Please wait System services are now being stopped etc rc0 d K05initrgm Calling clnode evacuate failfasts already disabled on node 1 Print services already stopped May 2 10 33 13 phys schost 1 syslogd going down on signal 15 The system is down syncing file systems done Type any key to continue Consulte Arranque de un cluster en la pagina 67 para reiniciar un cluster global o un cluster de zona que se ha cerrado Arranque de un cluster Este procedimiento explica c mo arrancar un cl ster global o uno de zona cuyos nodos se han cerrado En los nodos de un cl ster global el sistema muestra el indicador ok en los sistemas SPARC o el mensaje Press any key to continue Pulse cualquier tecla para continuar en los sistemas x86 basados en GRUB phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de lo
235. as de disco desde un archivo Complete el procedimiento descrito a continuaci n para supervisar o anular la supervisi n de rutas de disco desde un archivo Para modificar la configuraci n del cl ster mediante un archivo primero se debe exportar la configuraci n actual Esta operaci n de exportaci n crea un archivo XML que luego puede modificarse para establecer los elementos de la configuraci n que vaya a cambiar Las instrucciones de este procedimiento describen el proceso completo Precauci n Los nodos que ejecuten versiones anteriores a Sun Cluster 3 1 10 03 no admiten la supervisi n de rutas de disco No utilice los comandos de supervisi n de rutas de disco en el transcurso de una actualizaci n Tras actualizarse todos los nodos deben estar en l nea para emplear los comandos de supervisi n de rutas de disco phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 189 cl ster Administraci n de la supervisi n de rutas de disco 190 Ejemplo 5 50 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n
236. as formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Quite el usuario de SNMP phys schost 1 clsnmpuser delete n node user n nodo Especifica el nodo desde el que se ha eliminado el usuario de SNMP Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual usuario Especifica el nombre del usuario de SNMP que desea eliminar Configuraci n de los l mites de carga Puede habilitar la distribuci n autom tica de la carga del grupo de recursos entre los nodos o las zonas estableciendo l mites de carga Puede configurar un conjunto de l mites de carga para cada nodo del cl ster Usted asigna factores de carga a los grupos de recursos y los factores de carga corresponden a los l mites de carga definidos de los nodos El funcionamiento predeterminado consiste en distribuir la carga del grupo de recursos de forma uniforme entre todos los nodos disponibles en la lista de nodos del grupo de recursos El RGM inicia los grupos de recursos en un nodo de la lista de nodos del grupo de recursos para que no se superen los l mites de carga del nodo Puesto que el RGM asigna grupos de recursos a los nodos los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total La carga total se compara con los l mites de car
237. ation Key 0x43BAC41300000002 Quorum Devices Quorum Device Name d3 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum Ejemplo 6 10 Enabled yes Votes pl Global Name dev did rdsk d20s2 Type shared disk Access Mode scsi2 Hosts enabled phys schost 2 phys schost 3 Enumeraci n de una lista con la configuraci n de qu rum Este procedimiento tambi n puede efectuarse mediante la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Para enumerar la configuraci n de qu rum no hace falta ser superusuario Se puede asumir cualquier funci n que proporcione la autorizaci n de RBAC solaris cluster read Nota Al incrementar o reducir el n mero de conexiones de nodos con un dispositivo de qu rum el n mero de votos de qu rum no se recalcula de forma autom tica Puede reestablecer el voto de qu rum correcto si quita todos los dispositivos de qu rum y despu s los vuelve a agregar a la configuraci n En caso de un nodo de dos cl sters agregue temporalmente un nuevo dispositivo de qu rum antes de quitar y volver a agregar el dispositivo de qu rum original A continuaci n elimine el dispositivo de qu rum temporal phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento prop
238. auraci n de un sistema de archivos ra z que se encontraba en un volumen de Solaris Volume Manager El ejemplo siguiente muestra el sistema de archivos root restaurado en el nodo phys schost 1 desde el dispositivo de cinta dev rmt 0 El comando metaset se ejecuta desde otro nodo del cl ster phys schost 2 para eliminar y luego volver a agregar el nodo phys schost 1 al metaconjunto schost 1 Todos los dem s comandos se ejecutan desde phys schost 1 Se crea un bloque de arranque nuevo en dev rdsk c0t0d0s0 y se vuelven a crear tres r plicas de la base de datos en dev rdsk c0t0d0s4 Become superuser or assume a role that provides solaris cluster modify RBAC authorization on a cluster node with access to the metaset other than the node to be restored Remove the node from the metaset phys schost 2 metaset s schost 1 d h phys schost 1 Replace the failed disk and boot the node 356 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster Inicie el nodo desde el CD del sistema operativo Oracle Solaris SPARC tipo ok boot cdrom s x86 inserte el CD y arranque el sistema Para ello cierre el sistema y a continuaci n ap guelo y vu lvalo a encender En la pantalla de los par metros actuales de arranque escriba bo i lt lt lt Current Boot Parameters gt gt gt Boot path pci 0 0 pci8086 2545 3 pci8086 1460 1d pci80
239. basico d1s3 m Para crear un sistema de archivos Sistema de archivos de Veritas VxFS siga los procedimientos que se indican en la documentaci n de VxFS Cree un directorio de puntos de montaje en cada nodo del cl ster para el sistema de archivos de dicho cl ster Todos los nodos deben tener un punto de montaje aunque no se acceda al sistema de archivos de cl ster en un nodo concreto Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 179 cl ster Administraci n de sistemas de archivos de cl ster 180 Consejo Para facilitar la administraci n cree el punto de montaje en el directorio global grupo_dispositivos Esta ubicaci n permite distinguir f cilmente los sistemas de archivos de cl ster disponibles de forma global de los sistemas de archivos locales phys schost mkdir p global device group mountpoint grupo_dispositivos Nombre del directorio correspondiente al nombre del grupo de dispositivos que contiene el dispositivo punto_montaje Nombre del directorio en el que se monta el sistema de archivos de cl ster En cada uno de los nodos del cl ster agregue una entrada en el archivo etc vfstab para el punto de montaje Consulte la p gina de comando man vfstab 4 para obtener informaci n detallada Nota Si hay zonas no globales configuradas en el cl ster monte los sistemas de archivos de cl ster de la zona global en una ruta del directorio
240. bi n aparecen en las consolas de los otros nodos del cl ster global phys schost clnode evacuate phys schost 1 phys schost shutdown g0 y Shutdown started Wed Mar 10 13 47 32 PST 2004 Changing to init state 0 please wait Broadcast Message from root console on phys schost 1 Wed Mar 10 13 47 32 THE SYSTEM phys schost 1 IS BEING SHUT DOWN NOW Log off now or risk your files being damaged phys schost 1 INIT New run level 0 The system is coming down Please wait System services are now being stopped etc rc0 d K05initrgm Calling clnode evacuate failfasts disabled on node 1 Print services already stopped Mar 10 13 47 44 phys schost 1 syslogd going down on signal 15 umount global devices node 2 busy umount global devices node 1 busy The system is down syncing file systems done Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Cierre y arranque de un solo nodo de un cl ster WARNING CMM Node being shut down Type any key to continue Ejemplo3 9 Cierre de un nodo de un cl ster de zona El ejemplo siguiente muestra el uso de clzonecluster halt para cerrar un nodo presente en un cl ster de zona denominado zona_sc_dispersa En un nodo de un cl ster de zona tambi n se pueden ejecutar los comandos clnode evacuate y shutdown phys schost clzonecluster status Zone Clusters Zone Cluster Status Name Node Name Zone HostName Status Zone
241. bi n puede ver los dispositivos NAS que se han configurado para cl steres globales o de zona utilizando el subcomando clnasdevice show o Oracle Solaris Cluster Manager Para obtener m s informaci n consulte la p gina de comando man clnasdevice 1CL Validaci n de una configuraci n b sica de cl ster El comando cluster 1CL se sirve del subcomando check para validar la configuraci n b sica que necesita un cl ster global para funcionar correctamente Si ninguna comprobaci n arroja un resultado incorrecto cluster check devuelve al indicador del shell Si falla alguna de las comprobaciones cluster check emite informes que aparecen en el directorio de salida que se haya especificado o en el predeterminado Si ejecuta cluster check con m s de un nodo cluster check emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos Tambi n puede utilizar el comando cluster list checks para que se muestre una lista con todas las comprobaciones disponibles para el cl ster A partir de la versi n 3 3 5 11 de Oracle Solaris Cluster el comando cluster check se ha mejorado con nuevos tipos de comprobaciones Adem s de las comprobaciones b sicas que se ejecutan sin la interacci n del usuario el comando tambi n puede ejecutar comprobaciones interactivas y funcionales Las comprobaciones b sicas se ejecutan cuando la opci n k palabra_clave no se especifica Las comprobaciones interactivas requieren infor
242. bro de un grupo de dispositivos El protocolo que utiliza el subsistema de qu rum con un disco compartido puede verse si mira el valor de access mode para el disco compartido en la salida del comando cluster show Estos procedimientos tambi n pueden realizarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Consulte las paginas de comando man clsetup 1CL y clquorum 1CL si desea obtener informaci n sobre los comandos que se usan en los procedimientos siguientes Adici n de un dispositivo de qu rum de disco compartido El software de Oracle Solaris Cluster admite los dispositivos de disco compartido SCSI y SATA como dispositivos de qu rum Un dispositivo de SATA no es compatible con una reserva de SCSI para configurar estos discos como dispositivos de qu rum debe inhabilitar el indicador de protecci n de la reserva de SCSI y utilizar el protocolo de qu rum de software Cap tulo6 Administraci n de qu rum 197 Administraci n de dispositivos de qu rum 198 Para completar este procedimiento identifique una unidad de disco por su ID de dispositivo DID que comparten los nodos Use el comando cldevice show para ver la lista de nombres de DID Consulte la p gina de comando man cldevice 1CL si desea obtener informaci n adicional Compruebe que todos los nodos del cl ster est n en l nea antes de agregar un nuevo dispositivo de qu
243. btener m s informaci n sobre las operaciones de inicio basadas en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration Enel caso de un cl ster de zona para arrancar el cl ster de zona escriba el comando siguiente en un nico nodo del cl ster global phys schost clzonecluster boot zoneclustername A medida que se activan los componentes del cl ster aparecen mensajes en las consolas de los nodos que se han arrancado 5 Compruebe que los nodos se hayan arrancado sin errores y que est n en l nea El comando clnode status informa sobre el estado de los nodos del cl ster global phys schost clnode status Si ejecuta el comando clzonecluster status en un nodo del cl ster global se informa sobre el estado de los nodos de los cl sters de zona phys schost clzonecluster status Tambi n puede ejecutar el comando cluster status en un cl ster de zona para ver el estado de los nodos Nota Si el sistema de archivos var de un sistema alcanza su limite de capacidad es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo Si surge este problema consulte Reparaci n de un sistema de archivos var que haya alcanzado el l mite de capacidad en la p gina 87 Ejemplo3 5 Rearranque de un cl ster de zona El ejemplo siguiente muestra c mo detener y arrancar un cl ster de zona denominado zona_sc_dispersa Tambi n puede usar el com
244. c init d nscd start Para ver la funci n reci n creada y cualquier otra use el comando smrole con la opci n list tal y como se indica a continuaci n usr sadm bin smrole list Authenticating as user primaryadmin Type for help pressing lt enter gt accepts the default denoted by Please enter a string value for password lt type primaryadmin password gt Loading Tool com sun admin usermgr cli role UserMgrRoleCli from myHost Login to myHost as user primaryadmin was successful Download of com sun admin usermgr cli role UserMgrRoleCli from myHost was successful root 0 Super User primaryadmin 100 Most powerful role sysadmin 101 Performs non security admin tasks oper2 102 Custom Operator Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Modificaci n de las propiedades de RBAC de un usuario Modificaci n de las propiedades de RBAC de un usuario Antes de empezar Puede modificar las propiedades de RBAC de un usuario con la herramienta User Accounts o la l nea de comandos Para modificar las propiedades de RBAC de un usuario elija uno de los procedimientos siguientes Modificaci n de las propiedades de RBAC de un usuario con la herramienta User Accounts en la p gina 61 Modificaci n de las propiedades de RBAC de un usuario desde la l nea de comandos en la p gina 62 Modificaci n de las propiedades de RBAC de un usuario con la herramienta Us
245. cas de dispositivos en una sola instancia de DID l gica La instancia nica permite que el software de administraci n de vol menes use el dispositivo desde ambas partes Precauci n Si hay varios nodos conectados a la r plica secundaria ejecute este comando s lo en uno de ellos cldevice replicate D primary replica nodename S secondary replica nodename nombre_nodo_r plica_primaria Especifica el nombre del nodo remoto que contiene la r plica primaria S Especifica un nodo de origen distinto del nodo actual nombre_nodo_r plica_secundaria Especifica el nombre del nodo remoto que contiene la r plica secundaria Nota De forma predeterminada el nodo actual es el nodo de origen Use la opci n S para indicar otro nodo de origen Compruebe que se hayan combinado las instancias de DID cldevice list v logical_DID_device Compruebe que est establecida la replicaci n de TrueCopy cldevice show logical_DID_device En principio la salida del comando indica que el tipo de replicaci n es TrueCopy Sila reasignaci n de DID no combina correctamente todos los dispositivos replicados combine los dispositivos replicados uno por uno manualmente Precauci n Extreme las precauciones al combinar instancias de DID de forma manual Una reasignaci n incorrecta de los dispositivos podr a causar da os en los datos a Ejecute el comando cldevice combine en todos los nodos que contengan la r plica secundaria cldevi
246. cciones predeterminado a continuaci n pulse la tecla Intro Si rechaza la m scara de red predeterminada la utilidad clsetup solicita el n mero de nodos redes privadas y cl steres de zona que tiene previsto configurar en el cl ster b Especifique el n mero de nodos redes privadas y cl steres de zona que tiene previsto configurar en el cl ster A partir de estas cantidades la utilidad clsetup calcula dos m scaras de red como propuesta La primera m scara de red es la minima para admitir el n mero de nodos redes privadas y cl steres de zona que haya especificado Lasegunda m scara de red admite el doble de nodos redes privadas y cl steres de zona que haya especificado para asumir un posible crecimiento en el futuro Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 241 Administraci n de redes p blicas c Especifique una de las m scaras de red u otra diferente que admita el n mero previsto de nodos redes privadas y cl steres de zona Escriba yes como respuesta a la pregunta de la utilidad clsetup sobre si desea continuar con la actualizaci n Cuando haya finalizado salga de la utilidad clsetup Rearranque todos los nodos del cl ster de nuevo en modo de cl ster para ello siga estos subpasos en cada uno de los nodos a Arranque elnodo m En los sistemas basados en SPARC ejecute el comando siguiente ok boot En los sistemas basados en x86 ejecute los comand
247. ce Path phappy1 dev rdsk c4t8d0 Full Device Path phappy2 dev rdsk c4t8d0 Replication none default _ fencing global Modificaci n de la configuraci n del protocolo de protecci n global predeterminado para todos los dispositivos de almacenamiento La protecci n se puede activar o desactivar globalmente para todos los dispositivos de almacenamiento conectados a un cl ster La configuraci n de protecci n predeterminada de un solo dispositivo de almacenamiento anula la configuraci n global al establecer la protecci n predeterminada del dispositivo en pathcount prefer3 o en nofencing Si la configuraci n de protecci n de un dispositivo de almacenamiento est establecida en global el dispositivo de almacenamiento usa la configuraci n global Por ejemplo si un dispositivo de almacenamiento presenta la configuraci n predeterminada pathcount la configuraci n no se modificar si utiliza este procedimiento para cambiar la configuraci n del protocolo SCSI global a prefer3 Complete el procedimiento Modificaci n del protocolo de protecci n en un solo dispositivo de almacenamiento en la p gina 176 para modificar la configuraci n predeterminada de un solo dispositivo Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento Precauci n Si la protecci n se desactiva en un momento inadecuado sus dato
248. ce combine d destination instance source instance d La instancia de DID remota que corresponde a la r plica primaria instancia_destino instancia_origen La instancia de DID local que corresponde a la r plica secundaria Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 105 cl ster Administraci n de dispositivos replicados basados en almacenamiento Pasos siguientes 106 v Antes de empezar A b Compruebe que la reasignaci n de DID haya sido correcta cldevice list desination instance source instance Una de las instancias de DID no deber a figurar en la lista Compruebe que en todos los nodos se pueda tener acceso a los dispositivos de DID de todas las instancias de DID combinadas cldevice list v Para finalizar la configuraci n del grupo de dispositivos replicado efect e los pasos de los procedimientos siguientes Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la pagina 136 o Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 Al registrar el grupo de dispositivos debe asign rsele el mismo nombre que al grupo de replicaciones de TrueCopy Comprobaci n de la configuraci n de un grupo de dispositivos globales replicado con Hitachi TrueCopy en la p gina 106 Comprobaci n de la configuraci n de un grupo de dispositivos globales re
249. chost Capitulo3 Cierre y arranque de un cl ster 83 Cierre y arranque de un solo nodo de un cl ster 84 v Rearranque de un nodo en un modo que no sea de cl ster Puede arrancar un nodo del cl ster global en un modo que no sea de cl ster en el cual el nodo no participa como miembro del cl ster El modo que no es de cl ster resulta til a la hora de instalar el software del cl ster o en ciertos procedimientos administrativos como la aplicaci n de parches en un nodo Un nodo de un cl ster de zona no puede estar en un estado de arranque diferente del que tenga el nodo del cl ster global subyacente Si el nodo del cl ster global se arranca en un modo que no sea de cl ster el nodo del cl ster de zona asume autom ticamente el modo que no es de cl ster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n RBAC solaris cluster admin sobre el cl ster que se va a iniciar en un modo que no es de cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global Cierre el nodo del cl ster de zona con el comando clzonecluster halt en un nodo del c
250. ci n de reconfiguraci n Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual din mica en la interfaz de red p blica de la recopilaci n Solaris 10 on Sun Hardware Comprobaci n del estado de la interconexi n de cl ster Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 229 Administraci n de interconexiones de cl sters 230 Ejemplo 7 1 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Para llevar a cabo este procedimiento hace falta iniciar sesi n como superusuario Compruebe el estado de la interconexi n de cl ster clinterconnect status Consulte la tabla siguiente para ver los mensajes de estado comunes Mensaje de estado Descripci n y posibles acciones Path online La ruta funciona correctamente No es necesario hacer nada Path waiting La ruta se est inicializando No es necesario hacer nada Faulted La ruta no funciona Puede tratarse de un estado transitorio cuando las rutas pasan del estado d
251. cia en la p gina 184 entre los nodos v Adici n de un sistema de archivos de cl ster Efect e esta tarea en cada uno de los sistemas de archivos de cl ster creados tras la instalaci n inicial de Oracle Solaris Cluster Precauci n Compruebe que haya especificado el nombre del dispositivo de disco correcto Al crear un sistema de archivos de cl ster se destruyen todos los datos de los discos Si especifica un nombre de dispositivo equivocado podr a borrar datos que no tuviera previsto eliminar Antes de agregar un sistema de archivos de cl ster adicional compruebe que se cumplan los requisitos siguientes Se cuenta con privilegios de superusuario en un nodo del cl ster Software de administraci n de vol menes instalado y configurado en el cl ster Grupo de dispositivos Solaris Volume Manager o VxVM o segmento de disco de bloques donde poder crear el sistema de archivos de cl ster Si ha usado Oracle Solaris Cluster Manager para instalar servicios de datos ya hay uno o m s sistemas de archivos de cl ster si los discos compartidos en los que crear los sistemas de archivos de cl ster eran suficientes phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de sistemas de archivos de cl ster Este procedimiento proporciona las formas largas de los comandos
252. cieran caceres Aplicaci n de un parche de Oracle Solaris Cluster que no sea de rearranque ou 330 Y C mo aplicar parches en modo de un solo usuario a nodos con zonas de conmutaci n por O A NO 331 Cambio de un parche de Oracle Solaris Cluster rorscorossissesesnsnssirneaisionars 335 12 Copias de seguridad y restauraciones de cl sters oooonoicccnicinnionncnnononnncnncnnorcncnnononcorcncoso 337 Gopia de seguridad de UN Cluster csi cireionionind ateo cl A di dd RRA cine 337 Y B squeda de los nombres de sistema de archivos para hacer copias de seguridad 338 Y Determinaci n del n mero de cintas necesarias para una copia de seguridad completa 338 Y Copias de seguridad del sistema de archivos root ucccconccnninnnninnnnncnn cancion cananea canos 339 VW Copias de seguridad en l nea para duplicaciones Solaris Volume Manager 342 V Copias de seguridad en l nea para vol menes Veritas Volume Manager 0 0 eee 345 Contenido Y Copias de seguridad de la configuraci n del cl ster ooininccioncnninnnnnneconcnncancnnno cocer rorconncns 349 Restauraci n de los archivos del cllister oo ceeeeesss ees eeesseeeesessceeesesaeseseeeseseseeesnenseneateanenseneenenees 349 Restauraci n de archivos individuales de forma interactiva Solaris Volume Manager 350 Y Restauraci n del sistema de archivos root Solaris Volume Manager 0 0 350 Y C mo restaurar un sistema de archivos ra z que se encontraba en un
253. cionados con IPMP en un cl ster tenga en cuenta las indicaciones siguientes Cada adaptador de red p blica debe pertenecer a un grupo IPMP La variable local mac address debe presentar un valor true para los adaptadores de Ethernet Puede utilizar grupos IPMP basados en sondeos o en v nculos en un cl ster Un grupo IPMP basado en sondeos prueba la direcci n IP de destino y proporciona la mayor protecci n posible mediante el reconocimiento de m s condiciones que pueden poner en peligro la disponibilidad Debe configurar una direcci n IP de prueba para cada adaptador en los tipos siguientes de grupos de varias rutas Todos los grupos de ruta m ltiple con varios adaptadores requieren direcciones IP de prueba Los grupos de ruta m ltiple con un solo adaptador no requieren direcciones IP de prueba Las direcciones IP de prueba de todos los adaptadores del mismo grupo de varias rutas deben pertenecer a una sola subred de IP Las aplicaciones normales no deben utilizar direcciones IP ya que no tienen alta disponibilidad No hay restricciones respecto a la asignaci n de nombres en los grupos de varias rutas No obstante al configurar un grupo de recursos la convenci n de asignaci n de nombres netiflist estipula que est n formados por el nombre de cualquier ruta m ltiple seguido del n mero de ID de nodo o del nombre de nodo Por ejemplo supongamos que hay un grupo de varias rutas denominado sc_ipmp0 el nombre netiflist asi
254. clas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener mas informacion sobre el arranque basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration En la pantalla de los par metros de arranque utilice las teclas de flecha para seleccionar la entrada de n cleo y escriba e para editarla La pantalla de los par metros de arranque de GRUB que aparece es similar a la siguiente GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu Agregue x al comando para especificar que el sistema se arranque en un modo que no sea de cl ster Minimal BASH like line editing i
255. configure la funci n de control de la CPU Para obtener m s informaci n sobre c mo configurar la funci n de control de la CPU consulte la p gina de comando man rg_properties 5 Este cap tulo proporciona informaci n sobre los temas siguientes Introducci n al control de la CPU en la p gina 307 Configuraci n del control de la CPU en la p gina 309 Introducci n al control de la CPU El software Oracle Solaris Cluster permite controlar el uso de la CPU La funci n de control de la CPU se basa en las funciones disponibles en el sistema operativo Oracle Solaris Para obtener m s informaci n sobre zonas proyectos agrupaciones de recursos conjuntos de procesadores y clases de planificaci n consulte Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris En el sistema operativo Oracle Solaris se pueden realizar las tareas siguientes Asignar recursos compartidos de CPU a grupos de recursos Asignar procesadores a grupos de recursos Elecci n de una situaci n hipot tica Seg n las opciones de configuraci n y la versi n del sistema operativo que elija puede tener niveles distintos de control de la CPU Todos los aspectos de control de la CPU que se describen en este cap tulo dependen de la propiedad del grupo de recursos RG_SLM_TYPE establecida en automated La Tabla 10 1 describe las diferentes situaciones hipot ticas de configurac
256. cto o un montaje de bucle Los cl steres de zona admiten montajes directos para Sistema local de archivos UFS Sistema local de archivos VxFS Sistema de archivos independientes QFS Sistema de archivos compartidos QFS s lo cuando se utiliza para admitir el uso de Oracle RAC ZFS exportado como conjunto de datos NFS desde dispositivos NAS admitidos Los cl steres de zona pueden administrar montajes de bucle para Cap tulo 9 Administraci n del cl ster 297 Ejecuci n de tareas administrativas del cl ster de zona Sistema local de archivos UFS Sistema local de archivos VxFS Sistema de archivos independientes QFS Sistema de archivos compartidos QFS s lo cuando se utiliza para admitir el uso de Oracle RAC m UFS del cl ster de Oracle Real Application Clusters Sistema local de archivos del cl ster VxFS Configure un recurso HAStoragePlus o ScalMountPoint para administrar el montaje del sistema de archivos Para obtener instrucciones sobre c mo agregar un sistema de archivos a un cl ster de zona consulte Adici n de sistemas de archivos a un cl ster de zona de Oracle Solaris Cluster Software Installation Guide phys schost t refleja un indicador de cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id
257. cula de forma din mica el nodo sin votaci n con la agrupaci n SCSLM pool_ nombre_zona Aumenta el n mero de recursos compartidos de CPU asignados al nodo sin votaci n con el n mero espec fico de recursos compartidos de CPU si todav a no se ha hecho Crea un proyecto con el nombre SCSLM_nombre_grupo_recursos en el nodo sin votaci n si todav a no se ha hecho Este proyecto es espec fico del grupo de recursos y se le asigna el n mero especificado de recursos compartidos de CPU proyecto recursos compartidos cpu Inicia el recurso en el proyecto de SCSSLM_ nombre_grupo_recursos Configure FSS como tipo de programador para el sistema dispadmin d FSS FSS se convierte en el programador a partir del siguiente rearranque Para que esta configuraci n se aplique inmediatamente use el comando priocntl priocntl s C FSS Mediante la combinaci n de los comandos priocntl y dispadmin se asegura de que FSS se convierta en el programador predeterminado inmediatamente y de que permanezca despu s del rearranque Para obtener m s informaci n sobre c mo configurar un tipo de planificaci n consulte las paginas de comando man dispadmin 1M y priocntl 1 Nota Si FSS no es el programador predeterminado la asignaci n de recursos compartidos de CPU no se lleva a cabo En todos los nodos que usen un control de la CPU configure el n mero de recursos compartidos para el nodo de votaci n de cl ster global y el n mero m
258. da debe ser similar a la siguiente dev vx rdsk devgrp vol01 gt lhost reprg sec dev vx rdsk devgrp vol01 autosync on max q writes 4194304 max q fbas 16384 mode sync ctag devgrp state replicating En modo de replicaci n el estado es Logging y el estado activo de la sincronizaci n autom tica es off Cuando se escribe en el volumen principal el software Sun StorageTek Availability Suite actualiza el volumen secundario Vaya a Instant nea de un momento determinado en la p gina 406 Instant nea de un momento determinado En este procedimiento la instant nea de un momento determinado se ha utilizado para sincronizar el volumen sombra del cl ster primario con el volumen maestro del cl ster primario El volumen maestro es vol01 el de mapa de bits es vol04 y el de sombra es vol02 Realice el procedimiento Replicaci n por duplicaci n remota en la p gina 405 Obtenga acceso al nodo nodeA como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify y solaris cluster admin Inhabilite el recurso que se est ejecutando en el nodo nodeA nodeA clresource disable n nodeA nfs rs Cambie el cl ster primario a modo de registro Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n l lhost reprg prim Y dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk
259. datos quedan inmediatamente disponibles en el cl ster secundario M todos de replicaci n de datos utilizados por Sun StorageTek Availability Suite Esta secci n describe los m todos de replicaci n por duplicaci n remota y de instant nea de un momento determinado utilizados por Sun StorageTek Availability Suite Este software utiliza los comandos sndradm 1RPC e iiadm 111 para replicar datos Replicaci n por duplicaci n remota La replicaci n por duplicaci n remota se ilustra en la Figura A 1 Los datos del volumen maestro del disco primario se duplican en el volumen maestro del disco secundario mediante una conexi n TCP IP Un mapa de bits de duplicaci n remota controla las diferencias entre el volumen maestro del disco primario y el del secundario Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite FIGURA A 1 Replicaci n por duplicaci n remota Disco principal Disco secundario Los bloques de datos actualizados se copian peri dicamente en el volumen sombra j Volumen gt Volumen primario primario Volumen de mapa de bits Volumen de mapa de bits or duplicaci n remota o or duplicaci n remota Las diferencias entre el volumen primario y el volumen sombra se controlan en el volumen de mapa de bits de un instante determinado La replicaci n por duplic
260. de RBAC solaris cluster modify en todos los nodos del cl ster Exporte la configuraci n del dispositivo a un archivo XML cldevice export o configurationfile oarchivo_configuraci n Especifique el nombre de archivo del archivo XML Modifique el archivo de configuraci n de manera que se supervisen las rutas de dispositivos Busque las rutas de dispositivos que desee supervisar y establezca el atributo monitored en true Supervise las rutas de dispositivos cldevice monitor i configurationfile iarchivo_configuraci n Especifique el nombre de archivo del archivo XML modificado Compruebe que la ruta de dispositivo ya se supervise cldevice status Supervisar rutas de disco desde un archivo En el ejemplo siguiente la ruta de dispositivo entre el nodo phys schost 2 y el dispositivo d3 se supervisa con archivo XML El primer paso es exportar la configuraci n del cl ster actual cldevice export o deviceconfig El archivo XML deviceconfig muestra que la ruta entre phys schost 2 y d3 actualmente no se supervisa lt xml version 1 0 gt lt DOCTYPE cluster SYSTEM usr cluster lib xml cluster dtd gt lt cluster name brave_clus gt lt deviceList readonly true gt lt device name d3 ctd c1t8d0 gt lt devicePath nodeRef phys schost 1 monitored true gt lt devicePath nodeRef phys schost 2 monitored false gt lt device gt lt deviceList gt lt cluster gt Para supervisar es
261. de VxVM escriba el n mero correspondiente a la opci n de los grupos de dispositivos y los vol menes Se muestra el men Grupos de dispositivos Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Para registrar un grupo de dispositivos de VxVM escriba el n mero correspondiente a la opci n de registrar un grupo de discos de VxVM como grupo de dispositivos Siga las instrucciones y escriba el nombre del grupo de discos de VxVM que se vaya a registrar como grupo de dispositivos de Oracle Solaris Cluster Si este grupo de dispositivos se replica mediante replicaci n basada en almacenamiento dicho nombre debe coincidir con el del nombre del grupo de replicaciones Si usa VxVM para configurar grupos de discos compartidos para Oracle Parallel Server u Oracle RAC no registre los grupos de discos compartidos en la estructura del cl ster Use la funci n de cl ster de VxVM como se describe en Veritas Volume Manager Administrator s Reference Guide Si aparece el error siguiente al intentar registrar el grupo de dispositivos cambie el n mero menor del grupo de dispositivos cldevicegroup Failed to add device group in use Para cambiar el n mero menor del grupo de dispositivos siga el procedimiento Asignaci n de un n mero menor nuevo a un grupo de dispositivos Veritas Volume Manager en la p gina 148 Este procedimiento permite asignar un
262. de componentes 32 montajes directos admitidos 297 300 mover una ruta de zona 295 prepararlo para aplicaciones 295 rearrancar 69 validar configuraci n 45 ver configuraci n 36 cl ster global administraci n 263 306 arrancar 63 87 cerrar 63 87 definici n 18 eliminar nodos 255 estado de componentes 32 rearrancar 69 validar configuraci n 45 ver configuraci n 36 cl sters de campus recuperaci n con replicaci n de datos basada en almacenamiento 95 replicaci n de datos basada en almacenamiento 92 96 clzonecluster boot 67 69 clzonecluster Continuaci n descripci n 27 halt 63 73 comando usr cluster bin cluster check comprobaci n del archivo vfstab 180 comando boot 67 69 comando cconsole 22 25 comando ccp 21 25 comando claccess 21 comando cldevice 21 comando cldevicegroup 21 comando clinterconnect 21 comando clnasdevice 21 comando clnode 293 294 295 comando clnode check 21 comando clquorum 21 comando clreslogicalhostname 21 comando clresource 21 eliminar recursos y grupos de recursos 297 comando clresourcegroup 21 294 295 comando clresourcetype 21 comando clressharedaddress 21 comando clsnmphost 21 comando clsnmpmib 21 comando clsnmpuser 21 comando cltelemattribute 21 comando cluster check 21 comprobaci n del archivo vfstab 180 comando cluster shutdown 63 73 comando clzonecluster 21 comando crlogin 25 comando cssh 25 comando ctelnet 25 comando metaset 97 100 co
263. de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 No registre los grupos de discos compartidos de Oracle RAC con la estructura de cl ster Mantenimiento de grupos de dispositivos Puede llevar a cabo una serie de tareas administrativas para los grupos de dispositivos Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 141 cl ster Administraci n de grupos de dispositivos 142 Eliminaci n y anulaci n del registro de un grupo de dispositivos Solaris Volume Manager Los grupos de dispositivos son conjuntos de discos de Solaris Volume Manager que se han registrado con Oracle Solaris Cluster Para eliminar un grupo de dispositivos de Solaris Volume Manager use los comandos metaclear y metaset Dichos comandos eliminan el grupo de dispositivos que tenga el mismo nombre y anulan el registro del grupo de discos como grupo de dispositivos de Oracle Solaris Cluster Consulte la documentaci n de Solaris Volume Manager para saber los pasos que deben seguirse al eliminar un conjunto de discos Eliminaci n de un nodo de todos los grupos de dispositivos Siga este procedimiento para eliminar un nodo del cl ster de todos los grupos de dispositivos que incluyen el nodo en sus listas de posibles nodos primarios phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona
264. de host nuevo Aplique este procedimiento en todos los nodos cuyo nombre de host se haya cambiado 1 Elimine el archivo de certificado keystore ubicado en etc opt webconsole cd etc opt webconsole pkgrm keystore 2 Reinicie Oracle Solaris Cluster Manager usr sbin smcwebserver restart v Regeneraci n de las claves de seguridad de Common Agent Container Oracle Solaris Cluster Manager usa potentes t cnicas de cifrado para asegurar una comunicacion segura entre el servidor web de Oracle Solaris Cluster Manager y todos los nodos del cluster Las claves utilizadas por Oracle Solaris Cluster Manager se almacenan en el directorio etc opt SUNWcacao security en todos los nodos Deben ser id nticas en todos los nodos del cluster Durante el funcionamiento normal estas claves se pueden quedar en la configuraci n predeterminada Si cambia el nombre de host de un nodo del cl ster debe regenerar las claves de seguridad de Common Agent Container Tambi n podr a tener que regenerar las claves si hubiese un posible peligro para la clave por ejemplo un peligro en la ra z o root del equipo Para regenerar las claves de seguridad siga este siguiente 1 Detenga el daemon de administraci n Common Agent Container en todos los nodos del cluster opt bin cacaoadm stop 2 Regenere las claves de seguridad en un nodo del cl ster phys schost 1 opt bin cacaoadm create keys force Cap tulo 13 Administraci n de Oracle Solaris C
265. de la configuraci n mediante el procedimiento Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager en la p gina 152 phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster administer en todos los nodos del cl ster Determine el nodo primario para el grupo de dispositivos al que va a agregar el nuevo volumen cldevicegroup status Si el grupo de dispositivos est fuera de linea pongalo en l nea cldevicegroup switch n nodename devicegroup nombre_nodo Especifica el nombre del nodo al cual se conmuta el grupo de dispositivos Este nodo se convierte en el nuevo nodo primario grupo_dispositivos Especifica el grupo de dispositivos que se conmuta Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 147 cl ster Administraci n de grupos de dispositivos 148 4 En el nodo primario el que controla el grupo de dispositivos cree el volumen de VxVM en el grupo de discos Consulte la documentaci n de Veritas Volu
266. de los extremos del cable que est tratando de identificar Compruebe que el cable est habilitado clinterconnect show node adapter adapternode Habilitaci n de un cable de transporte de cl ster En este ejemplo se muestra c mo habilitar un cable de transporte de cl ster en el adaptador qfe 1 ubicado en el nodo phys schost 2 Become superuser on any node Start the clsetup utility clsetup Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexiones de cl sters Select Cluster interconnect gt Enable a transport cable Answer the questions when prompted You will need the following information You Will Need Information Example node names phys schost 2 adapter names qfel switch names hub1 Verify that the scinterconnect command was completed successfully clinterconnect enable phys schost 2 qfel Command completed successfully Quit the clsetup Cluster Interconnect Menu and Main Menu Verify that the cable is enabled clinterconnect show phys schost 1 qfe2 hub2 Transport cable phys schost 2 qfel Q ethernet 162 Enabled Transport cable phys schost 3 qfe04l ethernet 163 Enabled Transport cable phys schost 1 qfe040 ethernet 1el Enabled Inhabilitaci n de un cable de transporte de cl ster Este procedimiento tambi n puede efectuarse mediante la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea d
267. de protecci n en un solo dispositivo de almacenamiento en la p gina 176 Visualizaci n de la configuraci n del protocolo SCSI global predeterminado de todos los dispositivos de almacenamiento phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento Ejemplo 5 39 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione autorizaci n de RBAC solaris cluster read Desde cualquier nodo visualice la configuraci n del protocolo SCSI predeterminado global cluster show t global Para obtener m s informaci n consulte la p gina de comando man cluster 1CL Visualizaci n de la configuraci n del protocolo SCSI global predeterminado de todos los dispositivos de almacenamiento En el ejemplo siguiente se muestra la configuraci n del protocolo SCSI de todos los dispositivos de almacenamiento del cl ster cluster show t global Cluster Cluster Name racerxx installmode disabled heartbeat_timeout 10000 heartbeat_quantum 1000 private netaddr 172
268. disponibles en el conjunto de procesadores predeterminado El valor predeterminado es 1 p globalzoneshares entero Configura el n mero de recursos compartidos asignados al nodo de votaci n El valor predeterminado es 1 nodo Especifica los nodos donde van a configurarse las propiedades Al configurar estas propiedades tambi n se establecen las del nodo de votaci n Si no configura estas propiedades no se puede beneficiar de la propiedad de RG_SLM_PSET_TYPE en los nodos sin votaci n Compruebe si ha configurado correctamente estas propiedades clnode show node Para el nodo que especifique el comando clnode imprime las propiedades establecidas y los valores definidos para dichas propiedades Si no configura las propiedades de control de la CPU con clnode asumen el valor predeterminado Configure la funci n de control de la CPU clresourcegroup create p RG_SLM_TYPE automated p RG_SLM_CPU_SHARES value resource_group_name Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n del control de la CPU pRG_SLM_TYPE automated Permite controlar el uso de la CPU y automatiza algunos pasos para configurar el sistema operativo Oracle Solaris con el fin de administrar recursos del sistema pRG_SLM_CPU_SHARES valor Especifica el n mero de recursos compartidos de CPU asignados al proyecto espec fico del grupo de recursos project cpu shares y determina el n mero de
269. dispositivos Hayun orden de preferencia de los nodos para controlar el grupo de dispositivos Hayun n mero de nodos secundarios para el grupo de dispositivos Al definir el orden de preferencia tambi n se indica si el grupo de dispositivos debe conmutarse al primer nodo por orden de preferencia si se da un error en el nodo y posteriormente se vuelve al cl ster Consulte cldevicegroup 1CL si desea obtener m s informaci n sobre las opciones de preferencias y conmutaci n de procesos de nodos Los nodos no primarios del cl ster de repuesto realizan una transici n para convertirse en nodos secundarios de seg n el orden de preferencias de los nodos El n mero predeterminado de nodos secundarios de un grupo de dispositivos suele establecerse en uno Esta configuraci n predeterminada reduce al m nimo la disminuci n del rendimiento debido a los puntos de control de distintos nodos secundarios durante el funcionamiento normal Por ejemplo en un cl ster de cuatro nodos el comportamiento predeterminado configura un nodo primario uno secundario y dos de repuesto Consulte tambi n Establecimiento del n mero de secundarios para un grupo de dispositivos en la p gina 164 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Inicie la utilidad clsetup clsetup Aparece el ment principal Para trabajar con grupos de dispositivos
270. dministraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster 13 14 Ejemplo 11 1 crear el grupo de recursos clresourcegroup switch Z zoneclustername n zcnode resource group nombre_cluster_zona El nombre del cluster de zona al que esta conmutando los grupos de recursos nodo_c_z El nombre del nodo de cluster de zona que puede controlar el grupo de recursos Nota Los grupos de dispositivos no estan asociados a un cl ster de zona Compruebe si debe confirmar el software del parche mediante el comando scversions usr cluster bin scversions Aparece uno de los resultados siguientes Upgrade commit is needed Upgrade commit is NOT needed All versions match Si se necesita confirmaci n confirme el software del parche scversions c Nota Al ejecutar scversions al menos hay una reconfiguraci n de CMM depende de la situaci n Aplicaci n de un parche de rearranque nodo El ejemplo siguiente muestra la aplicaci n de un parche de rearranque de Oracle Solaris Cluster en un nodo clresourcegroup status n rgl Resource Group Resource rgl rs 2 rgl rs 3 cldevicegroup status n nodedg schost 1 Device Group Name dg schost 1 clnode evacuate phys schost 2 shutdown g0 y i0 Arranque el nodo en un modo monousuario que no sea de cluster Capitulo11 Aplicaci n de parches en el software
271. do a que el nodo de recuperaci n est fuera de l nea el sistema mostrar un error de RPC Rpcbind failure RPC Timed out Ignore este error y contin e con el siguiente paso metaset s setname f d h nodelist S Especifica el nombre del conjunto de discos nombre_conjunto f Elimina el ltimo host del conjunto de discos d Elimina del conjunto de discos h lista_nodos Especifica el nombre del nodo que se va a eliminar del conjunto de discos Restaure los sistemas de archivos de ra z y usr Para restaurar los sistemas de archivos de ra z y de usr siga el procedimiento del Cap tulo 25 Restoring UFS Files and File Systems Tasks de System Administration Guide Devices and File Systems Omita el paso del procedimiento del sistema operativo Oracle Solaris para reiniciar el sistema Nota Aseg rese de crear el sistema de archivos global devices node nodeid Rearranque el nodo en modo multiusuario reboot Cap tulo 12 Copias de seguridad y restauraciones de clusters 351 Restauraci n de los archivos del cl ster Ejemplo 12 6 Sustituya el ID del dispositivo cldevice repair rootdisk Use el comando metadb 1M para recrear las r plicas de la base de datos de estado metadb c copies af raw disk device c copias Especifica el n mero de r plicas que se van a crear f dispositivo_disco_b sico Dispositivo de disco b sico en el que crear las r plicas a Agrega r plicas D
272. donde N es el n mero de nodos con n mero de votos distinto de cero que tienen puertos conectados al dispositivo de qu rum Si un nodo se pone en estado de mantenimiento el n mero de votos de qu rum se reduce en uno Todos los dispositivos de qu rum configurados con puertos conectados al nodo tambi n ven reducido su n mero de votos Al restablecer el n mero de votos de qu rum y un nodo se quita del estado de mantenimiento el n mero de votos de qu rum y el del dispositivo de qu rum se ven incrementados en uno Ejecute este procedimiento siempre que haya puesto el nodo del cl ster global en estado de mantenimiento y vaya a sacarlo de l Precauci n Si no especifica nila opci n global dev ni node el recuento de qu rum se restablece para todo el cl ster Cap tulo 9 Administraci n del cl ster 281 Informaci n general sobre la administraci n del cl ster 282 Ejemplo 9 10 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n RBAC de solaris cluster modify en cualquier nodo del cl ster global que no sea el que se est en estado de mantenimiento Seg
273. dos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 26 Inicie la utilidad clsetup clsetup Aparece el men principal Para trabajar con grupos de dispositivos de VxVM escriba el n mero correspondiente a la opci n de los grupos de dispositivos y los vol menes Se muestra el men Grupos de dispositivos Para registrar las modificaciones en la configuraci n escriba el n mero correspondiente a la opci n de sincronizar la informaci n del volumen para un grupo de dispositivos de VxVM Siga las instrucciones y escriba el nombre del grupo de discos de Vx VM cuya configuraci n se haya modificado Registro de las modificaciones en la configuraci n de grupos de discos de Veritas Volume Manager El ejemplo siguiente muestra el comando cldevicegroup generado por clsetup al registrarse un grupo de dispositivos de VxVM modificado dg1 En este ejemplo se supone que el grupo de discos y el volumen de VxVM ya se hab an creado clsetup cldevicegroup sync dgl Conversi n de un grupo de discos local en un grupo de dispositivos VxVM Siga este procedimiento para cambiar un grupo de discos de VxVM local a un grupo de dispositivos de VxVM al que se pued
274. dsk c0t2d0 dev rdsk c1t0d0 dev rdsk c2t1d0 dev rdsk c2t1d0 dev rdsk c2t2d0 dev rdsk c2t2d0 dev rdsk c0t2d0 dev rdsk c1t0d0 Ejemplo 1 7 Visualizaci n de la informaci n del cl ster de zona En el ejemplo siguiente figuran las propiedades de la configuraci n del cl ster de zona 2 Zone Cluster Name zonename zonepath clzonecluster show Zone Clusters sczone sczone zones sczone Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster Procedimiento para empezar a administrar el cl ster autoboot TRUE ip type shared enable priv_net TRUE Solaris Resources for sczone Resource Name net address 172 16 0 1 physical auto Resource Name net address 172 16 0 2 physical auto Resource Name fs dir 9z db_qfs CrsHome special CrsHome raw type samfs options Resource Name fs dir 9z db_qfs CrsData special CrsData raw type samfs options Resource Name fs dir gz db_qfs OraHome special OraHome raw type samfs options Resource Name fs dir gz db_qfs OraData special OraData raw type samfs options Zone Cluster Nodes for sczone Node Name sczone 1 physical host sczone 1 hostname lzzone 1 Node Name sczone 2 physical host sczone 2 hostname lzzone 2 44 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Tam
275. e Manager phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Si el disco que se est encapsulando tiene entradas del sistema de archivos en el archivo etc vfstab compruebe que la opci n mount at boot est establecida en no Vu lvala a establecer en yes una vez que el disco est encapsulado y registrado como grupo de dispositivos de Oracle Solaris Cluster Encapsule los discos Use los men s vxdiskadm o la interfaz gr fica de usuario para encapsular los discos VXVM requiere dos particiones libres y cilindros sin asignaci n al inicio o al final del disco Asimismo el segmento dos debe establecerse para todo el disco Consulte la p gina de comando man vxdiskadm si desea obtener m s informaci n Cierre el nodo y reinicielo El comando clnode evacuate conmuta todos los grupos de recursos y de dispositivos incluidos los nodos de votaci n no globales de un cl ster global del nodo especificado al siguiente nodo por orden de preferencia Use el comando shutdown para cerrar y reiniciar el nodo clnode
276. e Seq P LDEV M group name pairl L CL1 C 0 9 54321 58 S VOL PAIR NEVER 12345 29 group name pairl R CL1 A 0 29 12345 29 P VOL PAIR NEVER 58 7 Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 103 cl ster Administraci n de dispositivos replicados basados en almacenamiento Pasos siguientes 104 v Antes de empezar d Ejecute el comando horctakeover en el nodo que conten a originalmente la r plica primaria horctakeover g group name e Compruebe mediante la ejecuci n del comando pairdisplay que el nodo primario haya vuelto a la configuraci n original pairdisplay g group name Group PairVol L R Port TID LU Seq _LDEV P S Status Fence Seq P LDEV M group name pairl L CL1 C 0 9 54321 58 P VOL PAIR NEVER 12345 29 group name pairl R CL1 A 0 29 12345 29 S VOL PAIR NEVER 58 Contin e la configuraci n del dispositivo replicado conforme a las instrucciones de Configuraci n de dispositivos de DID para replicaci n mediante Hitachi TrueCopy en la p gina 104 Configuraci n de dispositivos de DID para replicaci n mediante Hitachi TrueCopy Tras haber configurado un grupo de dispositivos para el dispositivo replicado debe configurar el controlador del DID utilizado por el dispositivo replicado phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global
277. e recursos de aplicaciones a Habilite el recurso de HAStoragePlus para la aplicaci n NFS nodeA clresource enable nfs rs b Ponga en l nea el grupo de recursos de aplicaciones en el nodo nodeA nodeA clresourcegroup online e M n nodeA nfs rg online Pone el grupo de recursos en l nea e Habilita los recursos asociados M Administra el grupo de recursos n Especifica el nodo en el que poner el grupo de recursos en l nea nfs rg Elnombre del grupo de recursos Compruebe que el grupo de recursos de aplicaciones est en l nea nodeA clresourcegroup status Examine el campo de estado del grupo de recursos para determinar si el grupo de recursos de aplicaciones est en l nea para el nodo nodeA y el nodo nodeB Vaya a Creaci n de un grupo de recursos de aplicaciones NFS en el cl ster secundario en la p gina 399 Creaci n de un grupo de recursos de aplicaciones NFS en el cl ster secundario Siga los pasos de Creaci n de un grupo de recursos de aplicaciones NES en el cl ster primario en la p gina 397 Obtenga acceso al nodo nodeC como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify solaris cluster admin y solaris cluster read Registre SUNW nfs como tipo de recurso nodeC clresourcetype register SUNW nfs Si SUNW HAStoragePlus no se ha registrado como tipo de recurso h galo nodeC clresourcetype register SUNW HAStoragePlus Ap ndice A
278. e subcomando menos el superusuario Compruebe el estado de los componentes del cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global phys schost clnode status m Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster 35 Procedimiento para empezar a administrar el cl ster 36 Ejemplo 1 5 Antes de empezar Comprobaci n del estado de la red p blica En el ejemplo siguiente se puede ver una muestra de la informaci n del estado de los componentes del cl ster devuelta por el comando clnode status clnode status m Node IPMP Group Status Node Name Group Name Status Adapter Status phys schost 1 test rg Online qfel Online phys schost 2 test rg Online qfel Online Visualizacion de la configuracion del cluster Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en linea de Oracle Solaris Cluster Manager para obtener mas informacion phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Todos los usuarios necesitan la autorizaci n de RBAC solaris cluster read para utilizar el subcomando status menos el superusuario Visualice
279. e Oracle Solaris Cluster Manager para obtener m s informaci n Quiz deba inhabilitar un cable de transporte de cl ster para cerrar temporalmente una ruta de interconexi n de cl ster Un cierre temporal es til al buscar la soluci n a un problema de la interconexi n de cl ster o al sustituir hardware de interconexi n de cl ster Cuando se inhabilita un cable sus dos extremos contin an configurados Un adaptador no se puede quitar si sigue en uso como extremo de un cable de transporte Precauci n Cada nodo del cl ster debe contar al menos una ruta de transporte operativa que lo comunique con todos los dem s nodos del cl ster No debe haber ning n par de nodos que est n aislados entre s Antes de inhabilitar un cable compruebe siempre el estado de interconexi n de cl ster de un nodo S lo se debe inhabilitar una conexi n por cable tras haber comprobado que sea redundante Es decir aseg rese de que haya disponible otra conexi n Si se inhabilita el ltimo cable operativo de un nodo dicho nodo deja de ser miembro del cluster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Cap tulo 7 Administraci n de interconexiones de clusters y
280. e administraci n de Oracle Solaris Cluster 60 Ejemplo 2 1 Inicie y detenga el daemon de memoria cach del servicio de nombres Las funciones nuevas no se activan hasta que se reinicie el daemon de memoria cach del servicio de nombres Como usuario root escriba el texto siguiente etc init d nscd stop etc init d nscd start Creaci n de una funci n de operador personalizado con el comando smrole La siguiente secuencia muestra c mo se crea una funci n con el comando smrole En este ejemplo se crea una versi n nueva de la funci n de operador a la que tiene asignado el perfil de derechos del operador est ndar as como el perfil de restauraci n de soporte su primaryadmin usr sadm bin smrole add H myHost c Custom Operator n oper2 a johnDoe Y d export home oper2 F Backup Restore Operator p Operator p Media Restore Authenticating as user primaryadmin Type for help pressing lt enter gt accepts the default denoted by Please enter a string value for password lt type primaryadmin password gt Loading Tool com sun admin usermgr cli role UserMgrRoleCli from myHost Login to myHost as user primaryadmin was successful Download of com sun admin usermgr cli role UserMgrRoleCli from myHost was successful Type for help pressing lt enter gt accepts the default denoted by Please enter a string value for password lt type oper2 password gt etc init d nscd stop et
281. e archivos de cl ster s lo son visibles desde el nodo de votaci n de un cl ster global Si necesita poder tener acceso a los datos del sistema de archivos de cl ster desde un nodo sin votaci n asigne los datos a dicho nodo con zoneadm 1M o HAStoragePlus Nota Cuando el sistema de archivos de cl ster lee archivos no actualiza la hora de acceso a tales archivos Restricciones del sistema de archivos de cl ster La administraci n del sistema de archivos de cl ster presenta las restricciones siguientes Elcomando unlink 1M no se admite en directorios que no est n vac os Nose admite el comando lockfs d Como soluci n alternativa utilice el comando lockfs n No puede volver a montar un sistema de archivos de cl ster con la opci n de montaje directio agregada en el momento en que el montaje se realiza de nuevo Seadmite ZFS para sistemas de archivos root con una excepci n importante Si emplea una partici n dedicada del disco de arranque para el sistema de archivos de los dispositivos globales como sistema de archivos se debe usar s lo UFS El espacio de nombre de dispositivos globales necesita que el sistema de archivos proxy PxFS se ejecute en un sistema de archivos UFS Sin embargo un sistema de archivos UFS para el espacio de nombre de dispositivos globales puede coexistir con un sistema de archivos ZFS para el sistema de archivos root y otros sistemas de archivos root por ejemplo var o home Cap
282. e cl ster Compruebe el estado de la ruta de transporte restante del cl ster clinterconnect status Capitulo7 Administraci n de interconexiones de clusters y redes p blicas 233 Administraci n de interconexiones de cl sters 234 A Precauci n Si recibe un mensaje de error del tipo ruta err nea al intentar eliminar un nodo de un cl ster de dos nodos investigue el problema antes de seguir con este procedimiento Un problema de ese tipo podr a denotar que una ruta del nodo no est disponible Si se elimina la ltima ruta operativa que quedaba el nodo deja de pertenecer al cl ster como consecuencia podr a darse una reconfiguraci n del cl ster Inicie la utilidad clsetup clsetup Aparece el men principal Escriba el n mero correspondiente a la opci n de acceder al men interconexi n de cl ster Escriba el n mero correspondiente a la opci n de inhabilitar el cable de transporte Siga las instrucciones y escriba la informaci n que se solicite Debe saber cu les son los nombres v lidos de nodos adaptadores y conmutadores Escriba el n mero correspondiente a la opci n de quitar el cable de transporte Siga las instrucciones y escriba la informaci n que se solicite Debe saber cu les son los nombres v lidos de nodos adaptadores y conmutadores Nota Si va a quitar un cable desconecte el cable entre el puerto y el dispositivo de destino Escriba el n mero correspondiente a la opci
283. e cl ster de alta disponibilidad se aplican a una configuraci n de Oracle Solaris 3 3 m Siga los procedimientos que figuran a continuaci n descritos en la documentaci n de VxFS para crear un sistema de archivos de VxFS Monte y desmonte un sistema de archivos de VxFS desde el nodo primario El nodo primario controla el disco en el que reside el sistema de archivos de VxFS Una operaci n de montaje o desmontaje de sistema de archivos de VxFS hecha desde un nodo secundario puede experimentar un error m Ejecute todos los comandos de administraci n de VxFS desde el nodo primario del sistema de archivos de cl ster de VxES Las directrices siguientes para administrar sistemas de archivos de cl ster de 118 no son exclusivas del software Oracle Solaris 3 3 Ahora bien las directrices difieren de la manera de administrar sistemas de archivos de cl ster UES Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Los archivos de un sistema de archivos de cl ster de VxFS pueden administrarse desde cualquier nodo del cl ster La excepci n es ioctls que debe ejecutarse s lo desde el nodo primario Si ignora si un comando de administraci n afecta a ioctls ejecute el comando desde el nodo primario ise da un error en un sistema de archivos de cl ster de VxFS y migra a un nodo secundario todas las operaciones de llamada del sistema est ndar que e
284. e de Oracle Solaris Cluster antes de instalarlo temporalmente es posible que se deba eliminar la pertenencia de un nodo al cl ster o detener el cl ster completo Esta secci n describe estos pasos Antes de aplicar un parche de Oracle Solaris Cluster consulte el archivo README del parche Asimismo compruebe los requisitos de actualizaci n para determinar el m todo de parche que necesitan los dispositivos de almacenamiento Nota En lo concerniente a los parches de Oracle Solaris Cluster consulte siempre el archivo README del parche y SunSolve para obtener instrucciones que reemplacen procedimientos de este cap tulo La instalaci n del parche en todos los nodos del cl ster se puede describir con una de las situaciones siguientes Parche de rearranque nodo Antes de poder aplicar el parche o el firmware se debe arrancar un nodo en modo monousuario con el comando boot sx o shutdown g y 10 a continuaci n se debe 319 Informaci n general sobre aplicaci n de parches de Oracle Solaris Cluster 320 rearrancar para que se una al cl ster En primer lugar el nodo debe ponerse en estado silencioso conmutando todos los grupos de recursos o de dispositivos del nodo al que se vaya a aplicar parches como miembro de otro cl ster Asimismo aplique el parche o el firmware nodo a nodo para evitar cerrar todo el cl ster El cl ster permanece disponible mientras se aplica este tipo de parche aunque los nodos individuales no
285. e del cl ster P Al rearrancar el nodo se rearrancan todos los grupos de recursos y grupos de dispositivos que se controlan en ese nodo en otro nodo Si no se tiene acceso a todas las rutas de disco compartido supervisadas de un nodo tras rearrancar autom ticamente el nodo ste no rearranca autom ticamente otra vez Sin embargo si alguna de las rutas de disco est disponible tras rearrancar el nodo pero falla posteriormente el nodo rearranca autom ticamente otra vez Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 191 cl ster Administraci n de la supervisi n de rutas de disco 192 Al habilitar la propiedad reboot_on_path_failure los estados de las rutas de disco local no se tienen en cuanta al determinar si es necesario rearrancar un nodo Esto afecta s lo a discos compartidos supervisados Convi rtase en superusuario en uno de los nodos del cl ster o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Habilite el rearranque autom tico de un nodo para todos los nodos del cl ster si fallan todas las rutas de disco compartido supervisadas de dicho nodo clnode set p reboot_on_path_failure enabled Inhabilitaci n del rearranque autom tico de un nodo si fallan todas las rutas de disco compartido supervisadas Si se inhabilita esta funci n y fallan todas las rutas de disco compartido supervisadas de un nodo dicho
286. e en superusuario en un nodo de cl ster Determine los n meros menores que est n en uso ls l global devices node nodeid dev vx dsk Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 24 Elija otro m ltiplo de 1 000 que no se utilice como n mero menor de base para el nuevo grupo de discos Asigne el n mero menor nuevo al grupo de discos vxdg reminor diskgroup base minor number Registre el grupo de discos de VxVM como grupo de dispositivos de Oracle Solaris Cluster Consulte Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 Asignaci n de un n mero menor nuevo a un grupo de dispositivos En este ejemplo se usan los n meros menores 16000 16002 y 4000 4001 El comando vxdg reminor se utiliza para asignar el n mero menor de base 5000 al nuevo grupo de dispositivos ls l global devices node nodeid dev vx dsk global devices node nodeid dev vx dsk dg1 brw 1 root root 56 16000 Oct 7 11 32 dglvl brw 1 root root 56 16001 Oct 7 11 32 dglv2 brw 1 root root 56 16002 Oct 7 11 32 dglv3 global devices node nodeid dev vx dsk dg2 brw 1 root root 56 4000 Oct 7 11 32 dg2v1 brw 1 root root 56 4001 Oct 7 11 32 dg2v2 vxdg reminor dg3 5000 Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager Este
287. e espera al estado en l nea Si al volver a ejecutar clinterconnect status sigue apareciendo este mensaje tome las medidas pertinentes para solucionarlo Comprobaci n del estado de la interconexi n de cl ster En el ejemplo siguiente se muestra el estado de una interconexi n de cl ster en funcionamiento clinterconnect status Cluster Transport Paths Endpoint Endpoint Status Transport path phys schost 1 qfel phys schost 2 qfel Path online Transport path phys schost 1 qfe0 phys schost 2 qfe0 Path online Transport path phys schost 1 qfel phys schost 3 qfel Path online Transport path phys schost 1 qfe0 phys schost 3 qfe0 Path online Transport path phys schost 2 qfel phys schost 3 qfel Path online Transport path phys schost 2 qfe0 phys schost 3 qfe0 Path online Adici n de dispositivos de cable de transporte de cl ster adaptadores o conmutadores de transporte Si desea obtener informaci n acerca de los requisitos necesarios para el transporte privado del cl ster consulte Interconnect Requirements and Restrictions de Oracle Solaris Cluster 3 3 Hardware Administration Manual Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexiones de cl sters Tambi n puede llevar a cabo este procedimiento mediante la interfaz gr fica de usuario GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager pa
288. e est realizando el procedimiento de cambio de nombre es el cl ster principal del grupo de protecci n y quiere que la aplicaci n del grupo de protecci n permanezca en l nea puede cambiar el grupo de protecci n al cl ster secundario durante el procedimiento de cambio de nombre Para obtener m s informaci n sobre los cl steres y nodos de Geographic Edition consulte el Cap tulo 5 Administering Cluster Partnerships de Oracle Solaris Cluster Geographic Edition System Administration Guide 3 Cambie los nombres de host de Oracle Solaris siguiendo los pasos indicados en C mo cambiar el nombre de host de un sistema de Gu a de administraci n del sistema Administraci n avanzada pero no reinicie el sistema al final del procedimiento En su lugar cierre el cl ster una vez completados los pasos 4 Inicie todos los nodos del cl ster en un modo que no sea de cl ster ok gt boot x Capitulo9 Administraci n del cl ster 277 Informaci n general sobre la administraci n del cl ster 278 10 11 En un modo que no sea de cluster en el nodo donde haya cambiado el nombre de host de Oracle Solaris cambie el nombre del nodo y ejecute el comando cmd en cada uno de los host a los que haya cambiado el nombre Cambie el nombre de los nodos uno por uno clnode rename n newnodename oldnodename Actualice las referencias existentes al nombre de host anterior en las aplicaciones que se ejecuten en el cluster Compru
289. e este procedimiento desde un nodo del cl ster global En los sistemas basados en SPARC ejecute el comando siguiente ok boot En los sistemas basados en x86 ejecute los comandos siguientes Cuando aparezca el men GRUB seleccione la entrada de Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10_x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line 78 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Cierre y arranque de un solo nodo de un cl ster Ejemplo 3 10 A medida que se activan los componentes del cl ster aparecen mensajes en las consolas de los nodos que se han arrancado Si tiene un cl ster de zona puede elegir un nodo para que arranque phys schost clzonecluster boot n node zoneclustername Compruebe que el nodo haya arrancado sin errores y est en l nea Alejecutarlo el comando cluster status informa sobre el estado de un nodo del cl ster global phys schost cluster status t node Al ejecutarlo desde un nodo del cluster global el comando clzonecluster status informa sobre el estado de todos los nodos de cl sters de zona phys schost clzonecluster status Un nodo de un cl st
290. e gt quit usr sbin smcwebserver restart c Compruebe que el servicio est disponible netstat a grep 6789 Si el servicio est disponible la salida del comando devuelve una entrada de 6789 que es el n mero de puerto que se utiliza para conectarse con Java Web Console Si despu s de realizar este proceso no se puede conectar con Oracle Solaris Cluster Manager determine si Sun Java Web Console est en funcionamiento mediante el comando usr sbin smcwebserver status Si Sun Java Web Console no est en funcionamiento haga que se inicie de forma manual con el comando usr sbin smcwebserver start Si Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Inicio del software Oracle Solaris Cluster Manager todav a no puede conectarse con Oracle Solaris Cluster Manager determine si Common Agent Container se est ejecutando mediante usr sbin cacaoadm status Si Common Agent Container no se est ejecutando in cielo de forma manual mediante usr sbin cacaoadm start Si recibe un mensaje de error del sistema al intentar ver informaci n sobre un nodo distinto al nodo que ejecuta la GUI compruebe si el par metro de la direcci n de enlace a la red del contenedor de agentes com n est definido en el valor correcto de 0 0 0 0 Realice estos pasos en cada nodo del cl ster 1 Muestre el valor del par metro network bind address cacaoadm get param network bind address network bind
291. e la configuraci n de zonas y la vinculaci n de agrupaciones respectivamente Visualice la configuraci n de la zona como se indica a continuaci n zonecfg z zone_name info pool Cap tulo 10 Configuraci n del control del uso de la CPU 313 Configuraci n del control de la CPU 314 Nota Se ha configurado un recurso como HAStoragePlus o LogicalHostname para que se inicie en un nodo sin votaci n de cl ster global pero con la propiedad GLOBAL_ZONE establecida en TRUE se inicia en el nodo de votaci n Aunque establezca la propiedad RG_SLM_TYPE en automated este recurso no se beneficia de la configuraci n de los recursos compartidos de CPU y se lo considera como si estuviera en un grupo de recursos con RG_SLM_TYPE establecida en manual En este procedimiento no se configura la propiedad RG_SLM_PSET_TYPE Oracle Solaris Cluster usa el conjunto de procesadores predeterminado Active el cambio de configuraci n clresourcegroup online M resource_group_name nombre_grupo_recursos Especifica el nombre del grupo de recursos Si establece RG_SLM_PSET_TYPE en default Oracle Solaris Cluster crea una agrupaci n SCSLM_pool_nombre_zona pero no un conjunto de procesadores En este caso SCSLM_pool_ nombre_zona se asocia con el conjunto de procesadores predeterminado Silos grupos de recursos en l nea ya no est n configurados para el control de la CPU en un nodo sin votaci n el valor de los recursos compartidos de CPU para
292. e la utilidad clsetup Compruebe que el grupo de discos est configurado correctamente como grupo de discos local phys schost vxdg list diskgroup Eliminaci n de un volumen de un grupo de dispositivos Veritas Volume Manager Nota Tras eliminar el volumen del grupo de dispositivos debe registrar las modificaciones en la configuraci n hechas en el grupo de dispositivos mediante el procedimiento Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager en la p gina 152 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 155 cl ster Administraci n de grupos de dispositivos 156 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster modify en cualquier nodo del cl ster Determine el nodo primario y el estado del grupo de dispositivos cldevicegroup status devicegroup Si el grupo de dispositivos est fuera de linea p ngalo en l nea cldevicegroup online devicegroup En el nodo primario el que controla el
293. e los l mites de carga fijos Si define afinidades fuertes y l mites de carga fijos es posible que algunos grupos de recursos est n obligados a permanecer sin conexi n si no pueden cumplirse ambas restricciones En el ejemplo siguiente se especifica una afinidad positiva fuerte entre el grupo de recursos rg1 del cl ster de zona zc1 y el grupo de recursos rg2 del cl ster de zona zc2 clresourcegroup set p RG_affinities zc2 rg2 zcl rgl 9 Compruebe el estado de todos los nodos de cl ster global y de cl ster de zona del cl ster clnode status Z all v El resultado incluye todos los valores de l mite de carga que hay definidos en el nodo o en sus zonas no globales Ejecuci n de tareas administrativas del cl ster de zona En un cl ster de zona puede efectuar otras tareas administrativas por ejemplo mover la ruta de zona preparar un cl ster de zona para que ejecuten aplicaciones y clonar un cl ster de zona Todos estos comandos deben ejecutarse desde el nodo de votaci n del cl ster global Cap tulo 9 Administraci n del cl ster 295 Ejecuci n de tareas administrativas del cl ster de zona 296 Nota Los comandos de Oracle Solaris Cluster que s lo ejecuta desde el nodo de votaci n en el cl ster global no son v lidos para usarlos con los cl steres de zona Consulte la p gina de comando man de Oracle Solaris Cluster para obtener informaci n sobre la validez del uso de un comando en zonas TABLA 9 3 O
294. e metaset phys schost 2 metaset s schost 1 a h phys schost 1 352 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster C mo restaurar un sistema de archivos ra z que se encontraba en un volumen de Solaris Volume Manager Siga este procedimiento para restaurar un sistema de archivos ra z que se encontraba en un volumen de Solaris Volume Manager cuando se llevaron a cabo las copias de seguridad Realice este procedimiento en circunstancias como por ejemplo cuando un disco root est corrupto y se reemplaza por otro nuevo El nodo que se est restaurando no se debe arrancar Aseg rese de que el cl ster se est ejecutando sin errores antes de llevar a cabo el proceso de restauraci n Nota Como debe particionar el disco nuevo con el mismo formato que el defectuoso identifique el esquema de partici n antes de comenzar el proceso y vuelva a crear los sistemas de archivos de forma adecuada phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modifiy en
295. e un dispositivo de qu rum en estado de mantenimiento en la p gina 214 Procedimiento para sacar un dispositivo de qu rum del estado de mantenimiento en la p gina 215 Enumeraci n de una lista con la configuraci n de qu rum en la p gina 217 Reparaci n de un dispositivo de qu rum en la p gina 218 Cambio del tiempo de espera predeterminado del qu rum en la p gina 219 Modificaci n de una lista de nodos de dispositivo de qu rum Puede emplear la utilidad clsetup 1CL para agregar un nodo o para quitar un nodo de la lista de nodos de un dispositivo de qu rum Para modificar la lista de nodos de un dispositivo de qu rum debe quitar el dispositivo de qu rum modificar las conexiones f sicas de los nodos con el dispositivo de qu rum que ha extra do y reincorporar el dispositivo de qu rum a la configuraci n del cl ster Al agregar un dispositivo de qu rum clquorum 1CL configura autom ticamente las rutas entre el nodo y el disco para todos los nodos conectados con el disco phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Cap tulo6 Administraci n de qu rum 211 Administraci n de dispositivos de qu rum Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos 1
296. e un nuevo grupo de discos al encapsular discos Veritas Volume Manager 145 V Adici n de un volumen nuevo a un grupo de dispositivos ya creado Veritas Volume MANDABEL nit il E E di da 147 Y Conversi n de un grupo de discos en un grupo de dispositivos Veritas Volume Manager nidad sia dd iaa a A A Sd da a A do ia ios 148 Contenido Y Asignaci n de un n mero menor nuevo a un grupo de dispositivos Veritas Volume Mana Ber A sisi E P E araiti dude 148 Y Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager 149 Y Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume MADE ui aiii iia 152 Y Conversi n de un grupo de discos local en un grupo de dispositivos VXVM ccccicnccnicas 153 Y Conversi n de un grupo de dispositivos en un grupo de discos local VXVM ee 154 Y Eliminaci n de un volumen de un grupo de dispositivos Veritas Volume Manager 155 Y Eliminaci n y anulaci n del registro de un grupo de dispositivos Veritas Volume E ora r erased tates Sse EAEE E chs ahvuse E VW Adici n de un nodo a un grupo de dispositivos Veritas Volume Manager V Eliminaci n de un nodo de un grupo de dispositivos Veritas Volume Manager 159 Y Eliminaci n de un nodo de un grupo de dispositivos de discos b sicos 0 eee 161 Y Cambio de propiedades de los grupos de dispositivos ococnnininnnnacrcereass 162 V Establecimiento del n mero de secundar
297. e zona claccess show nodo claccess allow h nodo_que_eliminar Eliminaci n de un nodo de un grupo de dispositivos Solaris Volume Manager en la p gina 143 Este paso es opcional en caso de que se elimine un nodo de un cl ster compuesto por dos nodos Eliminaci n de un dispositivo de qu rum en la p gina 208 Aunque hay que quitar el dispositivo de qu rum antes de eliminar el dispositivo de almacenamiento en el paso siguiente inmediatamente despu s se puede volver agregar el dispositivo de qu rum Eliminaci n del ltimo dispositivo de qu rum de un cl ster en la p gina 209 Colocaci n de un nodo en estado de mantenimiento en la p gina 279 Eliminaci n de un nodo de un cl ster de zona en la p gina 254 Eliminaci n de un nodo de la configuraci n de software del cl ster en la p gina 255 Desinstalaci n del software Oracle Solaris Cluster desde un nodo del cl ster en la p gina 283 Eliminaci n de un cl ster de zona en la p gina 296 Eliminaci n de un nodo de un cl ster de zona Se puede eliminar un nodo de un cl ster de zona si se detiene el nodo se desinstala y se elimina de la configuraci n Si posteriormente decidiese volver a agregar el nodo al cl ster de zona siga las instrucciones que se indican en la Tabla 8 1 La mayor a de estos pasos se realizan desde el nodo del cl ster global Convi rtase en superusuario en un nodo del cl ster glob
298. eC clresource create g nfs rg t SUNW nfs p Resource_dependencies nfs dg rs nfs rg Compruebe que el grupo de recursos de aplicaciones no est en linea en el nodo nodeC nodeC clresource disable n nodeC nfs rs nodeC clresource disable n nodeC nfs dg rs nodeC clresource disable n nodeC Lhost nfsrg sec nodeC clresourcegroup online n nfs rg El grupo de recursos queda fuera de linea despu s de un rearranque debido a Auto_start_on_new_cluster False Si el volumen global se monta en el cl ster primario desmonte el volumen global del cl ster secundario nodeC umount global mountpoint Si el volumen est montado en un cl ster secundario se da un error de sincronizaci n Vaya a Ejemplo de c mo habilitar la replicaci n de datos en la p gina 402 Ap ndice A Ejemplo 401 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Ejemplo de c mo habilitar la replicaci n de datos Esta secci n describe c mo habilitar la replicaci n de datos en la configuraci n de ejemplo Esta secci n utiliza los comandos sndradm e iiadm del software Sun StorageTek Availability Suite Para obtener m s informaci n sobre estos comandos consulte la documentaci n de Sun StorageTek Availability Esta secci n incluye los procedimientos siguientes Habilitaci n de la replicaci n en el cl ster primario en la p gina 402 Habilitaci n de la replicaci n
299. e_conjunto Use el comando lockfs 1M con la opci n w para bloquear la escritura en el sistema de archivos lockfs w mountpoint Nota El sistema de archivos debe bloquearse s lo si el sistema de archivos de UFS reside en el duplicado Por ejemplo si el volumen de Solaris Volume Manager se configura como un dispositivo b sico para el software de administraci n de la base de datos u otra aplicaci n no se debe usar el comando lockfs Sin embargo podr a ejecutar la utilidad adecuada seg n el proveedor para purgar los b feres y bloquear el acceso Use el comando metastat 1M para determinar los nombres de las subduplicaciones metastat s setname p p Muestra el estado en un formato similar al del archivo md tab Use el comando metadetach 1M para poner una subduplicaci n fuera de l nea desde la duplicaci n metadetach s setname mirror submirror Nota Las lecturas se siguen efectuando desde otras subduplicaciones Sin embargo la subduplicaci n fuera de l nea pierde la sincronizaci n al realizarse la primera escritura en la duplicaci n Esta incoherencia se corrige al poner la subduplicaci n en l nea de nuevo El comando fsck no debe ejecutarse Desbloquee los sistemas y permita que se pueda seguir escribiendo mediante el comando Lockfs con la opci n u lockfs u mountpoint Realice una comprobaci n del sistema de archivos fsck dev md diskset rdsk submirror Haga una copia de seguridad de la subd
300. ea el grupo o los grupos de dispositivos phys schost cldevicegroup online e devicegroupname Inicie el grupo o los grupos de recursos phys schost clresourcegroup online eM resourcegroupname Restauracion de un conjunto de discos danado Siga este procedimiento si un conjunto de discos est da ado o se encuentra en un estado en que los nodos del cl ster no pueden hacerse propietarios del conjunto de discos Si los intentos de borrar el estado han sido en vano en ltima instancia siga este procedimiento para corregir el conjunto de discos Estos procedimientos funcionan para los metaconjuntos de Solaris Volume Manager y los metaconjuntos de varios propietarios de Solaris Volume Manager Cap tulo 9 Administraci n del cl ster 303 Soluci n de problemas Y C mo guardar la configuraci n de software de Solaris Volume Manager Restaurar un conjunto de discos desde cero puede llevar mucho tiempo y causar errores La mejor alternativa es utilizar el comando metastat para realizar copias de seguridad de las r plicas de forma regular o utilizar el explorador de Oracle SUNWexplo para crear una copia de seguridad A continuaci n puede utilizar la configuraci n guardada para volver a crear el conjunto de discos Debe guardar la configuraci n actual en archivos mediante el comando prtvtoc y los comandos metastat y a continuaci n vuelva a crear el conjunto de discos y sus componentes Consulte C mo volver a crear la conf
301. ea obtener informaci n sobre c mo reiniciar una zona no global consulte el Capitulo 20 Como instalar iniciar detener desinstalar y clonar zonas no globales tareas de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Precauci n Si finaliza el tiempo de espera de un m todo para un recurso y no se puede eliminar el nodo se reiniciar s lo sila propiedad Failover_mode del recurso se establece en HARD Si la propiedad Failover_mode se establece en cualquier otro valor el nodo no se reiniciar Si el nodo del cl ster global o del cl ster de zona est ejecutando Oracle RAC cierre todas las instancias de base de datos presentes en el nodo que va a cerrar Consulte la documentaci n del producto de Oracle RAC para ver los procedimientos de cierre Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n RBAC solaris cluster admin sobre el nodo que vaya a cerrar Siga todos los pasos de este procedimiento desde un nodo del cl ster global Cierre el nodo del cl ster global con los comandos clnode
302. ebe que se haya cambiado el nombre del nodo consultando los mensajes de comando y los archivos de registro Reinicie todos los nodos en modo cl ster sync sync sync etc reboot Compruebe que el nodo muestre el nuevo nombre clnode status v Si va a cambiar el nombre de un nodo de cl ster de Geographic Edition y el cl ster asociado del cl ster que contiene el nodo al que se ha cambiado el nombre todav a hace referencia al nombre de nodo anterior el estado de sincronizaci n del grupo de protecci n se mostrar como un error Debe actualizar el grupo de protecci n de un nodo del cl ster asociado que contiene el nodo cuyo nombre se ha cambiado mediante el comando geopg update lt pg gt Despu s de completar este paso ejecute el comando geopg start e global lt pg gt M s adelante puede volver a cambiar el grupo de protecci n al cl ster que contiene el nodo cuyo nombre se ha cambiado Puede elegir si desea cambiar la propiedad hostnamelist de recursos de nombre de host l gico Consulte C mo cambiar los nombres de host l gicos utilizados por los recursos de nombre de host l gico de Oracle Solaris Cluster existentes en la p gina 278 para obtener instrucciones sobre este paso opcional C mo cambiar los nombres de host l gicos utilizados por los recursos de nombre de host l gico de Oracle Solaris Cluster existentes Puede elegir si desea cambiar la propiedad hostnamelist del recurso de nombre de host l gico ante
303. ecesita anular un parche consulte Cambio de un parche de Oracle Solaris Cluster en la pagina 335 C mo aplicar parches en modo de un solo usuario a nodos con zonas de conmutaci n por error Realice esta tarea para aplicar parches en modo de un solo usuario con zonas de conmutaci n por error Este m todo de parche es necesario si utiliza los servicios de datos de Oracle Solaris Cluster para contenedores Solaris en una configuraci n de migraci n tras error con el software Oracle Solaris Cluster Compruebe que el dispositivo de qu rum no se configure para uno de los LUN usado como almacenamiento compartido perteneciente a los grupos de discos que contienen la ruta de zona que se usa de forma manual en este procedimiento a Determine si el dispositivo de qu rum se utiliza en los grupos de discos que contienen las rutas de zona y si el dispositivo de qu rum usa las reservas de SCSI2 o de SCSI3 clquorum show b Si el dispositivo de qu rum est entre un LUN de los grupos de discos agregue un LUN nuevo como dispositivo de qu rum que no forme parte de ning n conjunto de discos que contengan la ruta de zona clquorum add new didname c Elimine el dispositivo de qu rum antiguo clquorum remove old didname d Silas reservas de SCSI2 se usan para el dispositivo de qu rum antiguo quite la reserva de SCSI2 de qu rum antiguo y compruebe que no queden reservas de SCSI2 Para saber c mo ejecutar los comandos pgre es
304. ecursos asociados M Administra el grupo de recursos n Especifica el nodo en el que poner el grupo de recursos en l nea Compruebe que el grupo de recursos est en l nea nodeC clresourcegroup status devgrp stor rg Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes Antes de empezar Examine el campo de estado del grupo de recursos para confirmar que el grupo de recursos de replicaciones est en l nea para el nodo nodec Vaya a Creaci n de un grupo de recursos de aplicaciones NFS en el cl ster primario en la p gina 397 Creaci n de un grupo de recursos de aplicaciones NFS en el cl ster primario Este procedimiento describe la creaci n de los grupos de recursos de aplicaciones para NES Es un procedimiento espec fico de esta aplicaci n no se puede usar para otro tipo de aplicaci n Complete el procedimiento Creaci n de un grupo de recursos de replicaciones en el cl ster secundario en la p gina 395 Obtenga acceso al nodo nodeA como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify solaris cluster admin y solaris cluster read Registre SUNW nfs como tipo de recurso nodeA clresourcetype register SUNW nfs Si SUNW HAStoragePlus no se ha registrado como tipo de recurso h galo nodeA
305. ed cluster The system is coming up Please wait checking ufs filesystems reservation program successfully exiting Print services started volume management starting The system is ready phys schost 1 console login NOTICE Node phys schost 1 joined cluster The system is coming up Please wait checking ufs filesystems reservation program successfully exiting Print services started volume management starting The system is ready phys schost 1 console login Cierre y arranque de un solo nodo de un cluster Puede cerrar un nodo del cl ster global un nodo de un cl ster de zona o una zona no global Esta secci n proporciona instrucciones para cerrar nodos del cl ster global y nodos de cl sters de zona Para cerrar un nodo del cl ster global use el comando clnode evacuate con el comando shutdown de Oracle Solaris Use el comando cluster shutdown s lo cuando vaya a cerrar todo un cl ster global En el caso de un nodo de un cl ster de zona use el comando clzonecluster halt en un cl ster global para cerrar s lo un nodo de un cl ster de zona o todo un cl ster de zona Tambi n puede usar los comandos clnode evacuate y shutdown para cerrar nodos de un cl ster de zona Si desea obtener m s informaci n sobre operaciones de cierre e inicio de una zona no global consulte el Cap tulo 20 C mo instalar iniciar detener desinstalar y clonar zonas no globales tareas de Gu a de administraci n de sistemas
306. edimientos mediante el uso de la utilidad interactiva clsetup 1CL o la GUI de Oracle Solaris Cluster Manager Siempre que es posible los procedimientos de qu rum de esta secci n se describen con la utilidad clsetup La ayuda en l nea de Oracle Solaris Cluster Manager describe c mo realizar los procedimientos relativos al qu rum mediante la GUI Al trabajar con dispositivos de qu rum tenga en cuenta las directrices siguientes Todos los comandos relacionados con el qu rum deben ejecutarse en el nodo de votaci n del cl ster global Siel comando clquorum se ve interrumpido o falla la informaci n de la configuraci n de qu rum podr a volverse incoherente en la base de datos de configuraci n del cl ster De darse esta incoherencia vuelva a ejecutar el comando o ejecute el comando clquorum reset para restablecer la configuraci n de qu rum 193 Administraci n de dispositivos de qu rum Para que el cl ster tenga la m xima disponibilidad compruebe que el n mero total de votos aportado por los dispositivos de qu rum sea menor que el aportado por los nodos De lo contrario los nodos no pueden formar un cl ster ninguno de los dispositivos de qu rum est disponible aunque todos los nodos est n funcionando No agregue ning n disco configurado como dispositivo de qu rum a una agrupaci n de almacenamiento ZFS de Solaris Si se agrega un dispositivo de qu rum configurado a una agrupaci n de almacenamiento ZFS de Solar
307. efectuoso Cree el sistema de archivos root y los pertinentes sistemas de archivos con el comando newfs Vuelva a crear los sistemas de archivos originales que estaban en el disco defectuoso Nota Compruebe que se cree el sistema de archivos global devices nodo id_nodo Monte el sistema de archivos root en un punto de montaje temporal mount device temp mountpoint Restaure el sistema de archivos root desde la copia de seguridad cd temp mountpoint ufsrestore rvf dump device rm restoresymtable Cree un archivo install db vac o Este archivo pone el nodo en modo de instalaci n VxVM en el pr ximo rearranque touch Y temp mountpoint etc vx reconfig d state d install db Elimine las entradas siguientes en el archivo punto_montaje_temp etc system rootdev pseudo vxio 0 0 set vxio vol_rootdev_is volume 1 Edite el dispositivo punto_montaje_temp etc vfstab y sustituya todos los puntos de montaje de VxVM por los dispositivos de disco est ndar para el disco root como dev dsk c0t0d0s0 Example Change from dev vx dsk rootdg rootvol dev vx rdsk rootdg rootvol ufs 1 no Change to dev dsk cO t0d0s dev rdsk cotodoso ufs 1 no Desmonte el sistema de archivos temporales y compruebe el sistema de archivos cd umount temp mountpoint fsck raw disk device Capitulo12 Copias de seguridad y restauraciones de clusters 361 Restauraci n de los archivos del cl ste
308. el grupo de dispositivos cuando el grupo de recursos de aplicaciones se conmute o migre tras error El grupo de dispositivos se coloca con el grupo de recursos de replicaciones y el grupo de recursos de aplicaciones Por este motivo la migraci n tras error del grupo de recursos de aplicaciones fuerza la migraci n de los grupos de dispositivos y de recursos de replicaciones El mismo nodo controla los grupos de recursos de aplicaciones y de recursos de replicaciones y el grupo de dispositivos Sin embargo que una migraci n tras error del grupo de dispositivos o del grupo de recursos de replicaciones no desencadena una migraci n tras error en el grupo de recursos de aplicaciones Silos datos de la aplicaci n est n montados de manera global la presencia de un recurso de HAStoragePlus en el grupo de recursos de aplicaciones no es obligatoria aunque s aconsejable Silos datos de la aplicaci n se montan de manera local la presencia de un recurso de HAStoragePlus en el grupo de recursos de aplicaciones es obligatoria Sin un recurso de HAStoragePlus la migraci n tras error del grupo de recursos de aplicaciones no activar a la migraci n del grupo de recursos de replicaciones y del grupo de dispositivos Despu s de una migraci n tras error el mismo nodo no controlar a el grupo de recursos de aplicaciones el grupo de recursos de replicaciones y el grupo de dispositivos Para obtener m s informaci n sobre HAStoragePlus consu
309. ema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n del control de la CPU agrupaci n que no sea la predeterminada Consulte las p ginas de comando man zonecfg 1M y poolbind 1M para obtener m s informaci n sobre la configuraci n de zonas y la vinculaci n de agrupaciones respectivamente Visualice la configuraci n de la zona como se indica a continuaci n zonecfg z zone_name info pool Nota Se ha configurado un recurso como HAStoragePlus o LogicalHostname para que se inicie en un nodo sin votaci n de cl ster global pero con la propiedad GLOBAL_ZONE establecida en TRUE se inicia en el nodo de votaci n Incluso si establece la propiedad RG_SLM_TYPE en automated este recurso no se beneficia de los recursos compartidos de CPU ni de la configuraci n del conjunto de procesadores dedicado y se lo considera como si fuera parte de un grupo de recursos con la propiedad RG_SLM_TYPE establecida en manual Active el cambio de configuraci n nombre_grupo_recursos Especifica el nombre del grupo de recursos Nota No elimine ni modifique el proyecto SCSLM_nombre_grupo_recursos Puede agregar m s control de recursos de forma manual al proyecto por ejemplo configurando la propiedad project max lwps Para obtener m s informaci n consulte la p gina de comando man projmod 1M Los cambios realizados en RG_SLM_CPU_SHARES y RG_SLM_PSET_MIN aunque el grupo de recursos est en l nea se tienen en cuenta de for
310. emplo siguiente muestra la informaci n de versi n del cl ster y de versi n de todos los paquetes phys schost clnode show rev 352 Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 29 Procedimiento para empezar a administrar el cl ster phys schost clnode show rev v Oracle Solaris Cluster 3 3 for Solaris 10 sparc SUNWscu 3 3 0 REV 2010 06 14 03 44 SUNWsccomu 3 3 0 REV 2010 06 14 03 44 SUNWsczr 3 3 0 REV 2010 06 14 03 44 SUNWsccomzu 3 3 0 REV 2010 06 14 03 44 SUNWsczu 3 3 0 REV 2010 06 14 03 44 SUNWscsckr 3 3 0 REV 2010 06 14 03 44 SUNWscscku 3 3 0 REV 2010 06 14 03 44 SUNWscr 3 3 0 REV 2010 06 14 03 44 SUNWscrtlh 3 3 0 REV 2010 06 14 03 44 SUNWscnmr 3 3 0 REV 2010 06 14 03 44 SUNWscnmu 3 3 0 REV 2010 06 14 03 44 SUNWscdev 3 3 0 REV 2010 06 14 03 44 SUNWscgds 3 3 0 REV 2010 06 14 03 44 SUNWscsmf 3 3 0 REV 2010 06 14 03 44 SUNWscman 3 3 0 REV 2010 05 21 18 40 SUNWscsal 3 3 0 REV 2010 06 14 03 44 SUNWscsam 3 3 0 REV 2010 06 14 03 44 SUNWscvm 3 3 0 REV 2010 06 14 03 44 SUNWmdmr 3 3 0 REV 2010 06 14 03 44 SUNWmdmu 3 3 0 REV 2010 06 14 03 44 SUNWscmasa 3 3 0 REV 2010 06 14 03 44 SUNWscmasar 3 3 0 REV 2010 06 14 03 44 SUNWscmasasen 3 3 0 REV 2010 06 14 03 44 SUNWscmasazu 3 3 0 REV 2010 06 14 03 44 SUNWscmasau 3 3 0 REV 2010 06 14 03 44 SUNWscmautil 3 3 0 REV 2010 06 14 03 44 SUNWscmautilr 3 3 0 REV 2010 06 14 03 44 SUNWjfreechart 3 3 0 REV 2010 06 14 03 44 SUNWscspmr
311. en el cl ster secundario en la pagina 404 Y Habilitaci n de la replicaci n en el cl ster primario 1 Aceda al nodo nodeA como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster read 2 Purguetodas las transacciones nodeA lockfs a f 3 Compruebe que los nombres de hosts l gicos Lhost reprg prim y Lhost reprg sec est n en l nea nodeA clresourcegroup status nodeC clresourcegroup status Examine el campo de estado del grupo de recursos 4 Habilite la duplicaci n por duplicaci n remota del cl ster primario al secundario Este paso habilita la replicaci n del volumen maestro del cl ster primario en el volumen maestro del cl ster secundario Adem s este paso permite la replicaci n en el mapa de bits duplicado remoto en el vol04 Silos cl steres primario y secundario no est n sincronizados ejecute este comando para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n e lhost reprg prim dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Siel cl ster primario y el secundario est n sincronizados ejecute este comando para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n E lhost reprg prim dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync 402 G
312. ento La distancia entre nodo y nodo est limitada por el canal de fibra de Oracle Solaris Cluster y la infraestructura de interconexi n P ngase en contacto con el proveedor de servicios de Oracle para obtener m s informaci n sobre las limitaciones actuales y las tecnolog as admitidas No configure un volumen replicado como dispositivo de qu rum Localice los dispositivos de qu rum en un volumen compartido con replicaci n anulada o utilice un servidor de qu rum Compruebe que s lo la copia primaria de los datos est visible para los nodos del cl ster De lo contrario el administrador de vol menes podr a intentar acceder simult neamente a las copias primaria y secundaria de los datos Consulte la documentaci n suministrada con la matriz de almacenamiento para obtener informaci n sobre el control de la visibilidad de las copias de datos EMCSRDE Hitachi TrueCopy e Hitachi Universal Replicator permiten que el usuario defina los grupos de dispositivos replicados Todos los grupos de dispositivos de replicaci n requieren un grupo de dispositivos de Oracle Solaris Cluster con el mismo nombre Los datos particulares espec ficos de una aplicaci n podr an no ser adecuados para una replicaci n de datos asincr nica Seg n sus conocimientos sobre el comportamiento de la aplicaci n determine la mejor forma de replicar los datos espec ficos de la aplicaci n en los dispositivos de almacenamiento Si quiere configurar el cl ster
313. ento antes de seguir adelante con este procedimiento Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en el nodo que desee eliminar Siga todos los pasos de este procedimiento desde un nodo del cl ster global Inicie el nodo del cl ster global que desee eliminar en un modo que no sea el de cl ster Para un nodo de un cl ster de zona siga las instrucciones indicadas en Eliminaci n de un nodo de un cl ster de zona en la p gina 254 antes de realizar este paso En los sistemas basados en SPARC ejecute el comando siguiente ok boot x Cap tulo8 Adici n y eliminaci n de un nodo 255 Eliminaci n de nodos de un cl ster En los sistemas basados en x86 ejecute los comandos siguientes shutdown g y i0 Press any key to continue En el men de GRUB utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener mas informacion sobre el arranque basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administ
314. entos descritos en Eliminaci n de un nodo de todos los grupos de dispositivos en la p gina 142 b Tras eliminar el nodo de todos los grupos de dispositivos vuelva a Desinstalaci n del software Oracle Solaris Cluster desde un nodo del cluster en la p gina 283 y repita el procedimiento 3 Sino seha podido volver a unir el nodo al cl ster cambie el nombre del archivo etc cluster ccr del nodo por otro cualquiera por ejemplo ccr old mv etc cluster ccr etc cluster ccr old 4 Vuelvaa Desinstalacion del software Oracle Solaris Cluster desde un nodo del cl ster en la p gina 283 y repita el procedimiento 262 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 9 Administraci n del cl ster Este cap tulo presenta los procedimientos administrativos que afectan a todo un cl ster global o a un cl ster de zona Informaci n general sobre la administraci n del cl ster en la p gina 263 m Ejecuci n de tareas administrativas del cl ster de zona en la p gina 295 Soluci n de problemas en la p gina 301 Si desea informaci n sobre c mo agregar o quitar un nodo del cl ster consulte el Cap tulo 8 Adici n y eliminaci n de un nodo Informaci n general sobre la administraci n del cl ster Esta secci n describe c mo realizar tareas administrativas para todo el cl ster global o de zona La tabla siguiente enumera estas
315. eplicaci n de los nodos del cl ster Si desea obtener instrucciones sobre la configuraci n de los pares de replicaci n consulte Configuraci n de un grupo de replicaciones de Hitachi TrueCopy en la p gina 102 En este ejemplo aparece un cl ster de tres nodos que usa TrueCopy El cl ster se distribuye en dos sitios remotos dos nodos en el primero y otro nodo en el segundo Cada sitio dispone de su propio dispositivo de almacenamiento de Hitachi Los ejemplos siguientes muestran el archivo de configuraci n etc horcm conf de TrueCopy en cada nodo Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 107 cl ster Administraci n de dispositivos replicados basados en almacenamiento 108 EJEMPLO 5 1 Archivo de configuraci n de TrueCopy en el nodo 1 HORCM_DEV dev_group dev_name port TargetID LU MU VGQ1 pairl CL1 A 0 29 VG01 pair2 CL1 A 0 30 VG01 pair3 CL1 A 0 31 HORCM_INST dev_group ip address service VGO1 node 3 horcm EJEMPLO 5 2 Archivo de configuraci n de TrueCopy en el nodo 2 HORCM_DEV dev_group dev_name port TargetID LU MU VGO1 pairl CL1 A 0 29 VG01 pair2 CL1 A 0 30 VG01 pair3 CL1 A 0 31 HORCM_INST dev_group ip address service VGO1 node 3 horcm EJEMPLO 5 3 Archivo de configuraci n de TrueCopy en el nodo 3 HORCM_DEV dev_group dev_name port TargetID LU MU VGQ1 pairl CL1 C 0 09 VG01 pair2 CL1 C 0 10 VG01 pair3 CL
316. er and switch are added clinterconnect show phys schost 1 qfe2 hub2 Transport Cables Transport Cable phys schost 1 qfe2 0 hub2 Endpoint1 phys schost 2 qfev d Endpoint2 ethernet 1 2 Should this be hub2 State Enabled clinterconnect show phys schost 1 qfe2 Transport Adepters for qfe2 232 Transport Adapter qfe2 Adapter State Enabled Adapter Transport Type dlpi Adapter Property device name ce Adapter Property device instance 0 Adapter Property lazy free 1 Adapter Property dlpi heartbeat_timeout 10000 Adpater Property dlpi heartbeat_quantum 1000 Adapter Property nw_ bandwidth 80 Adapter Property bandwidth 70 Adapter Property ip_address 172 16 0 129 Adapter Property netmask 255 255 255 128 Adapter Port Names 0 Adapter Port STate 0 Enabled Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexiones de cl sters Pasos siguientes clinterconnect show phys schost 1 hub2 Transport Switches Transport Switch hub2 Switch State Enabled Switch Type switch Switch Port Names 12 Switch Port State 1 Enabled Switch Port State 2 Enabled Para comprobar el estado de la interconexi n del cable de transporte de cl ster consulte Comprobaci n del estado de la interconexi n de cl ster en la p gina 229 Eliminaci n de cable de transporte de cl ster adaptadores de transporte y con
317. er Accounts Para modificar las propiedades de un usuario debe ejecutar User Tool Collection como superusuario o asumir una funci n que disponga del perfil de derechos de administrador principal Inicie la herramienta User Accounts Para ejecutar la herramienta User Accounts inicie Solaris Management Console tal y como se describe en How to Assume a Role in the Solaris Management Console de System Administration Guide Security Services Abra User Tool Collection y haga clic en el icono User Accounts Cuentas de usuario Una vez iniciada la herramienta User Accounts los iconos correspondientes a las cuentas de usuario se muestran en el panel de visualizaci n Haga clic en el icono de la cuenta de usuario que se debe modificar a continuaci n seleccione Properties Propiedades en el men Action Acci n o haga doble clic en el icono Haga clic en la ficha correspondiente del cuadro de di logo seg n la propiedad que se desee modificar como se indica a continuaci n Para cambiar las funciones asignadas al usuario haga clic en la ficha Roles Funciones y mueva la asignaci n de funci n que se debe modificar a la columna apropiada Available Roles Funciones disponibles o Assigned Roles Funciones asignadas Para cambiar los perfiles de derechos asignados al usuario haga clic en la ficha Rights Derechos y mueva los perfiles a la columna apropiada Available Rights Derechos disponibles o Assigned Rights Derech
318. er afectado a los dispositivos o a los componentes de administraci n de vol menes Convi rtase en superusuario en un nodo de cl ster Compruebe los montajes globales del cl ster cluster check k vfstab Administraci n de la supervisi n de rutas de disco 184 Los comandos de administraci n de supervisi n de rutas de disco permiten recibir notificaciones sobre errores en rutas de disco secundarias Siga los procedimientos descritos en esta secci n para realizar tareas administrativas asociadas con la supervisi n de las rutas de disco Consulte el Cap tulo 3 Key Concepts for System Administrators and Application Developers de Oracle Solaris Cluster Concepts Guide si desea obtener informaci n conceptual sobre el daemon de supervisi n de las rutas de disco Consulte la p gina de comando man cldevice 1CL si desea ver una descripci n de las opciones del comando y otros comandos relacionados Si desea obtener m s informaci n sobre c mo ajustar el daemon scdpmd consulte la p gina de comando man scdpmd conf 4 Consulte tambi n la p gina de comando man syslogd 1M para ver los errores registrados sobre los que informa el daemon Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la supervisi n de rutas de disco Nota Las rutas de disco se agregan autom ticamente a la lista de supervisi n al incorporar dispositivos de E S a un nodo mediante el comando cld
319. er de zona s lo puede arrancarse en modo de cl ster si el nodo que lo aloja arranca en modo de cl ster Nota Si el sistema de archivos var de un sistema alcanza su l mite de capacidad es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo Si surge este problema consulte Reparaci n de un sistema de archivos var que haya alcanzado el l mite de capacidad en la p gina 87 SPARC Arranque de un nodo del cl ster global El ejemplo siguiente muestra la salida de la consola cuando se arranca el nodo phys schost 1 en el cl ster global ok boot Rebooting with command boot Hostname phys schost 1 Booting as part of a cluster NOTICE Node phys schost 1 attempting to join cluster NOTICE Node phys schost 1 joined cluster The system is coming up Please wait checking ufs filesystems reservation program successfully exiting Print services started volume management starting The system is ready phys schost 1 console login Capitulo3 Cierre y arranque de un cl ster 79 Cierre y arranque de un solo nodo de un cl ster 80 v Rearranque de un nodo Para cerrar o reiniciar otros nodos activos en el cl ster global o en el cl ster de zona espere a que aparezca en l nea el estado gu a de servidor multiusuario para el nodo que est iniciando De lo contrario el nodo no estar disponible para hacerse cargo de los servicios de otros nodos del cl ster que se cierren o rearranquen Si des
320. er global conjunto de procesadores dedicado 314 red p blica administraci n 227 245 reconfiguraci n din mica 244 reemplazar dispositivos de qu rum 210 211 regenerar claves de seguridad 369 registrar grupos de discos como grupos de dispositivos 149 421 ndice registrar Continuaci n modificaciones en configuraci n de grupo de discos 152 reiniciar cl ster global 69 nodos de cl ster de zona 80 83 nodos de cl ster global 80 83 reparar dispositivo de qu rum 218 reparar sistema de archivos completo var adm messages 87 replicaci n Ver replicaci n de datos replicaci n basada en almacenamiento 92 96 replicaci n de datos 89 96 actualizar una entrada DNS 411 412 administrar una migraci n tras error 410 412 asincr nica 377 basada en almacenamiento 90 92 96 basada en host 90 comprobar configuraci n 407 410 configuraci n conmutaci n de afinidad 380 configuraci n de ejemplo 384 configurar conmutaci n de afinidad 394 grupos de dispositivos 388 grupos de recursos de aplicaciones NES 397 399 sistemas de archivos para una aplicaci n NES 391 392 definici n 90 91 directrices administrar conmutaci n 383 administrar migraci n tras error 383 configurar grupos de recursos 379 duplicaci n remota 376 405 406 ejemplo 405 410 grupos de recursos aplicaci n 380 aplicaciones de migraci n tras error 381 aplicaciones escalables 382 383 configurar 380 convenci n de asignaci n
321. er global 277 Y C mo cambiar el nombre de un nod cococcccccnccnnnnonncnncononcnnconencancan coronan canoa canon canarias 277 Y C mo cambiar los nombres de host l gicos utilizados por los recursos de nombre de host l gico de Oracle Solaris Cluster existentes ogists issis aissis rioni 278 Y Colocaci n de un nodo en estado de mantenimiento mcccinninnonennnnnnncnncnnncnnnn cnc conan 279 Y Procedimiento para sacar un nodo del estado de mantenimiento 1 281 V Desinstalacion del software Oracle Solaris Cluster desde un nodo del cl ster 283 Soluci n de problemas de la desinstalaci n de nodos cocccincionicnconnconncononanancannn crac 286 Creaci n configuraci n y administraci n de MIB de eventos de SNMP de Oracle Solaris A RN NN 287 Configuraci n de los limites de carga cncnnncnnioninnnnnncinnnncnn cnn cncnno cnn conncnncnncnnaconncanrrncnneronnaaa 293 Ejecuci n de tareas administrativas del cl ster de zona oo eee eeseesessesseeseeeteseestestesneesesneesteneeaes 295 Y Eliminaci n de un cl ster de Zona viii dat aiii 296 8 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Contenido V Eliminaci n de un sistema de archivos desde un cl ster de zona cocciciccinconincnnnnncnnennnannacanos 297 W Eliminaci n de un dispositivo de almacenamiento desde un cl ster de zona cocccccnicnnnnn 300 Soluci n de problemas 00 ai 301 Ejecuci n de una aplicaci n fuera del cl ster glob
322. er show t resource resourcetype resourcegroup Si desea obtener informacion sobre un determinado recurso los grupos de recursos y los tipos de recursos utilice el subcomando show con uno de los comandos siguientes m resource m resource group m resourcetype Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster 31 Procedimiento para empezar a administrar el cl ster Ejemplo 1 3 Visualizaci n de tipos de recursos grupos de recursos y recursos configurados En el ejemplo siguiente se muestran los tipos de recursos RT Name los grupos de recursos RG Name y los recursos RS Name configurados para el cl ster schost phys schost cluster show t resource resourcetype resourcegroup Registered Resource Types Resource Type RT_description RT_version API_version RT_basedir Single instance Proxy Init_nodes Installed _nodes Failover Pkglist RT_system Resource Groups and Resources Resource Group RG_description RG_mode RG_state Failback Nodelist Resources for Group qfs rg Resource Type Type version Group R_description Resource project_name Enabled phys schost 2 Enabled phys schost 1 Monitored phys schost 2 Monitored phys schost 1 SUNW qfs SAM QFS Agent on Oracle Solaris Cluster da L 3 opt SUNWsamfs sc bin False False All potential masters lt All gt True lt NULL gt False qfs rg lt NULL gt Failover M
323. er shutdown tambi n puede usarse dentro de un cluster de zona para cerrar todos los chisters de zona Capitulo3 Cierre y arranque de un cl ster 65 Descripci n general sobre el cierre y el arranque de un cl ster Ejemplo 3 1 Compruebe que todos los nodos del cluster global o el cl ster de zona muestren el indicador ok en los sistemas basados en SPARC o un men de GRUB en los sistemas basados en x86 No cierre ninguno de los nodos hasta que todos muestren el indicador ok en los sistemas basados en SPARC o se hallen en un subsistema de arranque en los sistemas basados en x86 Compruebe que los nodos del cl ster global muestren el indicador ok en los sistemas basados en SPARC o el mensaje Press any key to continue Pulse cualquier tecla para continuar del men de GRUB en los sistemas basados en x86 phys schost cluster status t node Use elsubcomando status para comprobar que el cl ster de zona se haya cerrado phys schost clzonecluster status Si es necesario cierre los nodos del cluster global Cierre de un cl ster de zona En el ejemplo siguiente se cierra un cl ster de zona denominado zona_sc_dispersa phys schost clzonecluster halt sparse sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster sparse sczone Sep 5 19 06 01 schost 4 cl_runtime NOTICE Membership Node 2 of cluster sparse sczone died Sep 5 19 06 01 schost 4 cl_runtime NOTICE Membership Node 4 of cl
324. er the questi Quit the clsetup Q Verify that the q clquorum list v Quorum Ty scphyshost 1 no scphyshost 2 no scphyshost 3 no Errores mas frecuentes Eliminaci n de un dispositivo de qu rum En este ejemplo se muestra c mo quitar un dispositivo de qu rum de un cl ster que tiene configurados dos o m s dispositivos de qu rum r assume a role that provides solaris cluster modify RBAC authorization on any rum device to be removed utility ove a quorum device ons when prompted uorum Menu and Main Menu uorum device is removed pe de de de Si se pierde la comunicaci n entre el cl ster y el host del servidor de qu rum durante una operaci n para quitar un dispositivo de qu rum de servidor de qu rum debe limpiar la informaci n de configuraci n caducada acerca del host del servidor de qu rum Si desea obtener instrucciones sobre c mo realizar esta limpieza consulte Limpieza de la informaci n caducada sobre cl sters del servidor de qu rum en la p gina 223 Eliminaci n del ltimo dispositivo de qu rum de un cl ster Este procedimiento elimina el ltimo dispositivo del qu rum de un cl ster de dos nodos mediante la opci n clquorum force F En general primero debe quitar el dispositivo que ha fallado y despu s agregar el dispositivo de qu rum que lo reemplaza Si no se trata del ltimo dispositivo de qu rum de un nodo con dos cl steres siga los pasos descritos en Eliminaci
325. erability applied Ejecuci n de una comprobaci n de validaci n funcional El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales La descripci n detallada aparece en una lista para la comprobaci n F6968101 que indica que la comprobaci n podr a alterar los servicios del cl ster El cl ster se elimina de la producci n La comprobaci n funcional se ejecuta con salida detallada registrada en el subdirectorio funct test F6968101 12Jan2011 En la salida de ejemplo aparece un muestreo de posibles comprobaciones las comprobaciones disponibles reales var an en cada configuraci n cluster list checks k functional F6968101 Critical Perform resource group switchover F6984120 Critical Induce cluster transport network failure single adapter F6984121 Critical Perform cluster shutdown F6984140 Critical Induce node panic cluster list checks v C F6968101 F6968101 Critical Perform resource group switchover Keywords SolarisCluster3 x functional Applicability Applicable if multi node cluster running live Check Logic Select a resource group and destination node Perform usr cluster bin clresourcegroup switch on specified resource group either to specified node or to all nodes in succession Version 1 2 Revision Date 12 10 10 Take the cluster out of production Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para emp
326. erando de MIB especifique la MIB en una lista delimitada por espacios despu s de todas las dem s opciones de l nea de comandos Habilitaci n de un host de SNMP para que reciba capturas de SNMP en un nodo Este procedimiento muestra c mo agregar un host de SNMP de un nodo a la lista de sistemas que recibir las notificaciones de captura para las MIB phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Agregue el host a la lista de hosts de SNMP de una comunidad en otro nodo phys schost 1 clsnmphost add c SNMPcommunity n node host c comunidad_SNMP Especifica el nombre de la comunidad de SNMP que se usa en combinaci n con el nombre del host Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster Se debe especificar el nombre de comunidad de SNMP comunidad_SNMP cuando agregue un host que no sea public a la comunidad Si usa el subcomando add sin la opci n c el subcomando utiliza public como nombre de comunidad predeterminado Si el
327. erativo Oracle Solaris 10 Consulte el apartado relacionado a temas de varias rutas de redes IP en Gu a de administraci n del sistema servicios IP Si desea informaci n sobre los procedimientos de instalaci n del software de cl ster consulte Oracle Solaris Cluster Software Installation Guide Para ver los procedimientos sobre tareas de mantenimiento y reparaci n de componentes de hardware de redes p blicas consulte Oracle Solaris Cluster 3 3 Hardware Administration Manual Reconfiguraci n din mica con interfaces de red p blica Debe tener en cuenta algunos aspectos al desarrollar operaciones de reconfiguraci n din mica con interfaces de red p blica en un cl ster Todos los requisitos los procedimientos y las restricciones documentados sobre la reconfiguraci n din mica de Oracle Solaris tambi n son v lidos para la reconfiguraci n din mica en Oracle Solaris Cluster excepto la inactividad del sistema operativo Por lo tanto consulte la documentaci n sobre la reconfiguraci n din mica de Oracle Solaris antes de utilizarla con el software Oracle Solaris Cluster Preste especial atenci n a los problemas que afecten a los dispositivos de E S no conectados a red durante las operaciones de desconexi n de reconfiguraci n din mica Las operaciones de eliminaci n de tarjetas de DR s lo pueden finalizar correctamente si las interfaces de red p blica no est n activas Antes de eliminar una interfaz de red p blica ac
328. es 164 preferenced 162 propiedades de extensi n para replicaci n de datos recurso de aplicaci n 398 400 recurso de replicaci n 394 396 puntos de montaje globales 50 modificaci n del archivo etc vfstab 179 Q quitar cables adaptadores y conmutadores de transporte 233 dispositivos de qu rum 208 sistema de archivos de cl ster 182 184 ltimo dispositivo de qu rum 209 qu rum administraci n 193 219 informaci n general 193 219 R RBAC 55 62 Oracle Solaris Cluster Manager 367 para nodos de votaci n de cl ster global 56 para nodos sin votaci n 56 perfiles de derechos descripci n 56 57 tareas agregar funciones 57 agregar funciones personalizadas 60 configurar 55 modificar usuarios 61 usar 55 realizar copia de seguridad duplicaciones en l nea 342 sistema de archivos 338 sistemas de archivos root 339 vol menes en l nea 345 rearrancar cl ster de zona 69 reconfiguraci n din mica 98 100 dispositivos de qu rum 195 interconexiones de cl sters 229 interfaces de red p blica 244 recuperaci n cl sters con replicaci n de datos basada en almacenamiento 95 recurso de nombres de host l gicos funci n en migraci n tras error de replicaci n de datos 380 recursos eliminar 297 mostrar tipos configurados 31 recursos compartidos de CPU configurar 307 controlar 307 nodos de votaci n de cl ster global 309 nodos sin votaci n de cl ster global 311 nodos sin votaci n de cl st
329. es de cl sters 5 Cambie o acepte la direcci n IP de red privada Para aceptar la direcci n IP de red privada predeterminada y cambiar el rango de direcciones IP escriba yes y pulse la tecla Intro La utilidad clsetup pregunta si desea aceptar la m scara de red predeterminada Vaya al siguiente paso para escribir su respuesta Para cambiar la direcci n IP de red privada predeterminada siga los subpasos descritos a continuaci n a Escriba no como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar la direcci n predeterminada a continuaci n pulse la tecla Intro La utilidad clsetup solicita la nueva direcci n IP de red privada b Escriba la direcci n IP nueva y pulse la tecla Intro La utilidad cl setup muestra la m scara de red predeterminada a continuaci n pregunta si desea aceptar la m scara de red predeterminada 6 Modifique o acepte el rango de direcciones IP de red privada predeterminado La m scara de red predeterminada es 255 255 240 0 Este rango de direcciones IP predeterminado admite un m ximo de 64 nodos 12 cl steres de zona y 10 redes privadas en el cl ster Para aceptar el rango de direcciones IP predeterminado escriba yes y pulse la tecla Intro A continuaci n vaya al siguiente paso Para cambiar el rango de direcciones IP realice los subpasos siguientes a Escriba no como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar el rango de dire
330. esde un nodo del cl ster que no sea el restaurado agregue el nodo restaurado atodos los grupos de discos phys schost 2 metaset s setname a h nodelist a Crea el host y lo agrega al conjunto de discos El nodo se rearranca en modo de cl ster El cl ster est preparado para utilizarse Restauraci n del sistema de archivos root Solaris Volume Manager El ejemplo siguiente muestra el sistema de archivos root restaurado en el nodo phys schost 1 desde el dispositivo de cinta dev rmt 0 El comando metaset se ejecuta desde otro nodo en el cl ster phys schost 2 para eliminar y luego volver a agregar el nodo phys schost 1 al conjunto de discos schost 1 Todos los dem s comandos se ejecutan desde phys schost 1 Se crea un bloque de arranque nuevo en dev rdsk c0t0d0s0 y se vuelven a crear tres r plicas de la base de datos en dev rdsk c0t0d0s4 Become superuser or assume a role that provides solaris cluster modify RBAC authorization on a cluster node other than the node to be restored Remove the node from the metaset phys schost 2 metaset s schost 1 f d h phys schost 1 Replace the failed disk and boot the node Restore the root and usr file system using the procedure in the Solaris system administration documentation Reboot reboot Replace the disk ID cldevice repair dev dsk cotodo Re create state database replicas metadb c 3 af dev rdsk c0t0d0s4 Add the node back to th
331. espacio de nombre global Aspectos que tener en cuenta en la administraci n de Veritas Volume Manager Para que el software Oracle Solaris Cluster mantenga el espacio de nombre de VxVM debe registrar todas las modificaciones realizadas en los vol menes o grupos de discos de VxVM como cambios en la configuraci n de grupos de dispositivos de Oracle Solaris Cluster El registro de modificaciones asegura la actualizaci n del espacio de nombre en todos los nodos del cl ster Algunos ejemplos de modificaciones que repercuten sobre el espacio de nombre son agregar quitar o cambiar el nombre de un volumen Modificar los permisos del volumen su propietario o el ID de grupo afecta tambi n al espacio de nombre Nota No importe ni deporte nunca grupos de discos de VxVM con comandos de VxVM una vez registrado el grupo de discos con el cl ster como grupo de dispositivos de Oracle Solaris Cluster El software Oracle Solaris Cluster se ocupa de todos los casos en que haya grupos de discos que deben importarse o deportarse Cada grupo de discos de VxVM debe tener un n mero menor exclusivo para todo el cl ster De forma predeterminada al crear un grupo de discos VxVM elige un n mero aleatorio que sea m ltiplo de 1 000 para que sirva como n mero menor base del grupo de discos En la mayor a de las configuraciones que s lo tienen un n mero reducido de grupos de discos este n mero menor es suficiente para garantizar la singularidad El n mero me
332. ess satvdceasnsoaduaeiuandbocusthvensaetesen doesoeyesees 13 Introducci n a la administraci n de Oracle Solaris Cluster oo nooo 17 Introducci n a la administraci n de Oracle Solaris Cluster cccesesssseeseseessessesseestessesteseesesneees 18 Trabajo con un clister de Zona sariini 18 Restricciones de las funciones del sistema operativo Oracle Solaris ocooninioninninnnemmmmnmno 19 Herramientas de administraci n iii illa osas 20 Interfaz gr fica de wstiarie cuidas 20 Interfaz del nea de commandos ninia nia 20 Preparaci n para administrar el cl ster eiii 22 Documentaci n de las configuraciones de hardware de Oracle Solaris Cluster 22 Uso de la consola de administraci n susirinkti 22 Copia de seguridad del cl ster vsiicniriniininnnniir ni aiiis aik 23 Procedimiento para empezar a administrar el ClUster sisseseade 24 Y Inicio de sesi n remota en el Cl Ster dei 25 Y Conexi n segura a las consolas del cl ster c ocooicicninoninnnnnncncnnncrnrncnrn cren ronrnr cn ronrnr cnn 27 Y Obtenci n de acceso a las utilidades de configuraci n del cl ster ooocincioniioninnninnonnncncancnss 27 Visualizaci n de la informaci n de parches de Oracle Solaris Cluster oooniciininninninnnm 28 Visualizaci n de la informaci n de versi n de Oracle Solaris Cluster coco 29 W Visualizaci n de tipos de recursos configurados grupos de recursos y recursos 31 Y Comprobaci n del estado de los componentes
333. est n disponibles temporalmente Un nodo al que se han aplicado parches se puede volver a unir a un cl ster como miembro aunque otros nodos no est n todav a en el mismo nivel de parche Parche de rearranque cl ster Para aplicar el parche del software o firmware el cl ster debe detenerse y todos los nodos deben arrancarse en modo monousuario con el comando boot sx o shutdown g y 10 A continuaci n rearranque los nodos para que vuelvan a unirse al cl ster Para este tipo de parches el cl ster no est disponible cuando se aplican los parches Parche que no es de rearranque Al aplicar el parche un nodo no debe estar en estado silencioso todavia puede estar controlando grupos de recursos o de dispositivos ni debe rearrancarse Ahora bien el parche debe aplicarse a los nodos de uno en uno y comprobar que el parche funcione antes de aplicar el parche a otro nodo Nota Los protocolos del cl ster subyacente no cambian debido a un parche Use el comando patchadd para aplicar un parche al cl ster y patch rm para eliminar un parche si es posible Sugerencias sobre los parches de Oracle Solaris Cluster Las sugerencias siguientes ayudan a administrar los parches de Oracle Solaris Cluster de forma m s eficaz Antes de aplicar el parche lea siempre el archivo README del parche Compruebe los requisitos de actualizaci n de los dispositivos de almacenamiento para determinar el m todo de parche que se necesita
334. este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Cap tulo6 Administraci n de qu rum 199 Administraci n de dispositivos de qu rum 200 Use la GUI de NAS de Sun para configurar un dispositivo SCSI en el archivador de NAS de Sun Consulte la documentaci n de instalaci n que se env a con Sun ZFS Storage Appliance o la Ayuda en l nea de la aplicaci n para obtener instrucciones sobre c mo configurar un dispositivo iSCSI Si tiene un dispositivo NAS de Sun utilice los comandos siguientes a Cree un volumen de archivos con un tama o aproximado de 50 MB b En cada uno de los nodos cree una lista de acceso de iSCSI i Emplee el nombre del cl ster como nombre de la lista de acceso de iSCSI ii Agregue ala lista de acceso el nombre del nodo iniciador de cada nodo del cl ster No son necesarios CHAP ni lQN c Configure el LUN de iSCSI Puede usar el nombre del volumen de archivos de apoyo como nombre para el LUN Agregue al LUN la lista de acceso de cada nodo Detecte el LUN de iSCSI en cada uno de los nodos y establezca la lista de acceso de iSCSI con configuraci n est tica iscsiadm modify discovery s enable iscsiadm list discovery Discovery Static enabled Send Targets disabled
335. estion v Comprobaci n de los puntos de montaje globales El comando cluster 1CL incluye comprobaciones que verifican el archivo etc vfstab para detectar posibles errores de configuraci n con el sistema de archivos del cl ster y sus puntos de montaje globales Nota Ejecute cluster check despu s de efectuar cambios en la configuraci n del cl ster que hayan afectado a los dispositivos o a los componentes de administraci n de vol menes 1 Convi rtase en superusuario de un nodo de miembro activo en un cl ster global Siga todos los pasos de este procedimiento desde un nodo del cl ster global o su 2 Compruebe la configuraci n del cl ster global phys schost cluster check 50 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Ejemplo 1 12 Comprobaci n de puntos de montaje globales El ejemplo siguiente muestra el nodo phys schost 2 del cl ster denominado suncluster excepto el punto de montaje global schost 1 Los informes se env an al directorio de salida var cluster logs cluster check lt timestamp gt phys schost cluster check v1 h phys schost 1 phys schost 2 o var cluster logs cluster_check Dec5 cluster check Requesting explorer data and node report from phys schost 1 cluster check Requesting explorer data and node report from phys schost 2 cluster check phys schost 1 Explorer finished cl
336. et p zprivatehostname hostalias node zone p Especifica una propiedad zprivatehostname alias_host Especifica el nombre de host privado o el alias de host de la zona nodo El nombre del nodo zona El nombre del nodo del cl ster global que no es de votaci n 6 Realice una configuraci n inicial de zonas internas Siga los procedimientos descritos en la secci n Configuraci n inicial de la zona interna de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris Seleccione uno de los siguientes m todos Inicie una sesi n en la zona Utilice el archivo etc sysidcfg 7 Enelnodo que no es de votaci n modifique el archivo nsswitch conf Estos cambios permiten a la zona realizar b squedas de direcciones IP y nombres de host espec ficos del cl ster a Inicie una sesi n en la zona phys schost zlogin c zonename b Abra el archivo etc nsswitch conf para modificarlo sczone vi etc nsswitch conf c Agregue el conmutador cluster al comienzo de las b squedas de las entradas hosts y netmasks y a continuaci n el conmutador files Las entradas modificadas deber an presentar un aspecto similar al siguiente hosts cluster files nis NOTFOUND return netmasks cluster files nis NOTFOUND return d En las entradas restantes aseg rese de que el conmutador files es el primero que se muestra en la entrada 252 Guia de administraci
337. etaset y clsetup Eliminar un nodo de un grupo de dispositivos de Solaris Volume Manager con el comando metaset Instrucciones Actualizaci n del espacio de nombre de dispositivos globales en la p gina 130 C mo cambiar el tama o de un dispositivo lofi que se utiliza para el espacio de nombres de dispositivos globales en la p gina 131 Migraci n del espacio de nombre de dispositivos globales desde una partici n dedicada hasta un dispositivo de lofi en la p gina 133 Migraci n del espacio de nombre de dispositivos globales desde un dispositivo de lofi hasta una partici n dedicada en la p gina 134 Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la p gina 136 Adici n y registro de un grupo de dispositivos disco b sico en la p gina 138 Adici n y registro de un grupo de dispositivos replicado ZFS en la p gina 139 Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager en la p gina 141 Eliminaci n y anulaci n del registro de un grupo de dispositivos Solaris Volume Manager en la p gina 142 Eliminaci n de un nodo de todos los grupos de dispositivos en la p gina 142 Eliminaci n de un nodo de un grupo de dispositivos Solaris Volume Manager en la p gina 143 128 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grup
338. evacuate y shutdown Cierre el cl ster de zona mediante la ejecuci n del comando clzonecluster halt desde un nodo del cl ster global Los comandos clnode evacuate y shutdown tambi n funcionan en los clusters de zona En el caso de un cl ster global escriba los comandos siguientes en el nodo que vaya a cerrar El comando clnode evacuate conmuta todos los grupos de dispositivos desde el nodo especificado al siguiente nodo por orden de preferencia Este comando tambi n conmuta todos los grupos de recursos de las zonas globales y no globales del nodo especificado a las zonas globales o no globales de otros nodos que se sit en a continuaci n en el orden de preferencia Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Cierre y arranque de un solo nodo de un cl ster Nota Para cerrar un nico nodo utilice el comando shutdown g0 y i6 Para cerrar varios nodos al mismo tiempo utilice el comando shutdown g0 y i para detenerlos Despu s de detener todos los nodos utilice el comando boot en todos ellos para volver a arrancarlos en el cl ster En un sistema basado en SPARC ejecute los comandos siguientes para reiniciar un nodo nico phys schost clnode evacuate node phys schost shutdown g0 y i6 a En un sistema basado en x86 ejecute los comandos siguientes para reiniciar un nodo nico phys schost clnode evacuate node phys schost shutdown g0 y i6 Cuando aparezca el men
339. evice Asimismo la supervisi n de rutas de disco se detiene autom ticamente al quitar los dispositivos de un nodo con los comandos de Oracle Solaris Cluster TABLA 5 6 Mapa de tareas administrar la supervisi n de rutas de disco Tarea Supervisar una ruta de disco Anular la supervisi n de una ruta de disco Imprimir el estado de rutas de disco err neas correspondientes a un nodo Supervisar rutas de disco desde un archivo Habilitar o inhabilitar el rearranque autom tico de un nodo si fallan todas las rutas de disco compartido supervisadas Resolver un estado incorrecto de una ruta de disco Puede aparecer un informe sobre un estado de ruta de disco incorrecta cuando el dispositivo de DID supervisado no est disponible al arrancar y la instancia de DID no se carga en el controlador de DID Instrucciones Supervisi n de una ruta de disco en la p gina 185 Anulaci n de la supervisi n de una ruta de disco en la p gina 187 Impresi n de rutas de disco err neas en la p gina 188 Supervisi n de rutas de disco desde un archivo en la p gina 189 Habilitaci n del rearranque autom tico de un nodo si fallan todas las rutas de disco compartido supervisadas en la p gina 191 Inhabilitaci n del rearranque autom tico de un nodo si fallan todas las rutas de disco compartido supervisadas en la p gina 192 Resoluci n de un error de estado de ruta de disco en la p gina 188
340. ex html Tema Documentaci n Conceptos Oracle Solaris Cluster Concepts Guide Administraci n e instalaci n de software Instalaci n de software Administraci n e instalaci n de servicio de datos Desarrollo de servicio de datos Administraci n del sistema Actualizaci n de software Mensajes de error Referencias de comandos y funciones Oracle Solaris Cluster 3 3 Hardware Administration Manual Gu as de administraci n de hardware individual Oracle Solaris Cluster Software Installation Guide Oracle Solaris Cluster Data Services Planning and Administration Guide Gu as de servicio de datos individual Oracle Solaris Cluster Data Services Developers Guide Gu a de administraci n del sistema de Oracle Solaris Cluster Oracle Solaris Cluster Quick Reference Oracle Solaris Cluster Upgrade Guide Oracle Solaris Cluster Error Messages Guide Oracle Solaris Cluster Reference Manual Oracle Solaris Cluster Data Services Reference Manual Para obtener una lista completa de la documentaci n de Oracle Solaris Cluster consulte las notas de la versi n de software Oracle Solaris Cluster en http wikis sun com display SunCluster Home Documentaci n y asistencia Para obtener m s informaci n consulte los siguientes sitios web Documentation http ww oracle com technetwork indexes documentation index html m Compatibilidad http ww oracle com us support systems index html Prefacio Recursos de software de
341. ezar a administrar el cl ster cluster check k functional C F6968101 o funct test F6968101 12Jan2011 F6968101 initializing initializing xml output loading auxiliary data starting check run pschost1 pschost2 pschost3 pschost4 F6968101 starting Perform resource group switchover gt gt gt Functional Check lt lt lt Functional checks exercise cluster behavior It is recommended that you do not run this check on a cluster in production mode It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed Select continue for more details on this check 1 continue 2 exit choice 1 gt gt gt Check Description lt lt lt Follow onscreen directions Ejemplo 1 11 Comprobaci n de la configuraci n del cl ster global con una comprobaci n con resultado no satisfactorio El ejemplo siguiente muestra el nodo phys schost 2 perteneciente al cl ster denominado suncluster excepto el punto de montaje global phys schost 1 Los informes se crean en el directorio de salida var cluster logs cluster_check lt timestamp gt phys schost cluster check v h phys schost 1 phys schost 2 o Capitulo1 Introducci
342. ga del nodo Un l mite de carga consta de los elementos siguientes Un nombre asignado por el usuario Un valor de l mite flexible Un l mite de carga flexible se puede superar temporalmente Un valor de l mite fijo Los l mites de carga fijos no pueden superarse nunca y se aplican de forma estricta Cap tulo 9 Administraci n del cl ster 293 Informaci n general sobre la administraci n del cl ster 294 Puede definir tanto el l mite fijo como el l mite flexible con un solo comando Si uno de los l mites no se establece expl citamente se utilizar el valor predeterminado Los l mites de carga fijos y flexibles de cada nodo se crean y modifican con los comandos clnode create loadlimit clnode set loadlimit y clnode delete loadlimit Consulte la p gina de comando man clnode 1CL para obtener m s informaci n Puede configurar un grupo de recursos para que tenga una mayor prioridad de modo que sea menos probable que se desplace de un nodo espec fico Tambi n puede establecer una propiedad preemption_mode para determinar si un grupo de recursos se apoderar de un nodo mediante un grupo de recursos de mayor prioridad debido a la sobrecarga de nodos La propiedad concentrate_load tambi n permite concentrar la carga del grupo de recursos en el menor n mero de nodos posible El valor predeterminado de la propiedad concentrate_load es FALSE Nota Puede configurar limites de carga en los nodos de un cl ster globa
343. gas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify entodos los nodos del cl ster Ponga fuera de l nea el grupo de dispositivos cldevicegroup offline devicegroup Inicie la utilidad clsetup clsetup Aparece el ment principal Para trabajar con grupos de dispositivos de VxVM escriba el numero correspondiente ala opci n de los grupos de dispositivos y los vol menes Se muestra el men Grupos de dispositivos Para anular el registro de un grupo de discos de VxVM escriba el n mero correspondiente a la opci n de anular el registro de un grupo de dispositivos de VxVM Siga las instrucciones y escriba el nombre del grupo de discos de VxVM cuyo registro se vaya a anular Eliminaci n y anulaci n del registro de un grupo de dispositivos de Veritas Volume Manager El ejemplo siguiente muestra el grupo de dispositivos de VxVM dg1 puesto fuera de l nea y el comando cldevicegroup generado por clsetup cuando elimina y anula el registro del grupo de dispositivos cldevicegroup offline dgl clsetup cldevicegroup delete dgl Adici n de un nodo a un grupo de dispositivos Veritas Volume Manager Este procedimiento agrega un nodo a un grupo de dispositivos mediante la utilidad
344. ge Appliance o la Ayuda en l nea de la aplicaci n para obtener instrucciones sobre c mo configurar un dispositivo iSCSI Add an iSCSI device on the Sun NAS filer Use the Sun NAS GUI to create a file volume that is approximately 50mb in size File Volume Operations gt Create File Volume For each node create an iSCSI access list iSCSI Configuration gt Configure Access List Add the initiator node name of each cluster node to the access list Need GUI or command syntax for this step Configure the iSCSI LUN iSCSI Configuration gt Configure iSCSI LUN On each of the cluster nodes discover the iSCSI LUN and set the iSCSI access list to static configuration iscsiadm modify discovery s enable iscsiadm list discovery Discovery Static enabled Send Targets enabled iSNS disabled iscsiadm add static config iqn 1986 03 com sun0 1 000e0c66efe8 4604DE16 thinquorum 10 11 160 20 devsadm i iscsi From one cluster node configure the DID devices for the iSCSI LUN usr cluster bin scldevice populate usr cluster bin scldevice populate Become superuser or assume a role that provides solaris cluster modify RBAC authorization on any cluster node Add the NAS device as a quorum device using the DID device clquorum add d20 Command completed successfully Y Adici n de un dispositivo de qu rum de almacenamiento conectado a NAS de Network Appliance Al usar un dispositivo de almacenamiento conectado a red Nework Attached Storage
345. ged Failback False Nodelist phys schost 1 phys schost 2 Resources for Group cl tlmtry rg Resource cl tlmtry rs Type SUNW sctelemetry Type version 1 Group cl tlmtry rg R_description Resource project_name default Enabled phys schost 1 True Enabled phys schost 2 True Monitored phys schost 1 True 42 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Monitored phys schost 2 DID Device Instances DID Device Name Full Device Path Replication default_fencing DID Device Name Full Device Path Replication default_fencing DID Device Name Full Device Path Full Device Path Replication default_ fencing DID Device Name Full Device Path Full Device Path Replication default_fencing DID Device Name Full Device Path Replication default_fencing DID Device Name Full Device Path Replication default_ fencing NAS Devices Nas Device Type User ID Nas Device Type User ID True dev did rdsk d1 phys schost 1 none global dev did rdsk d2 phys schost 1 none global dev did rdsk d3 phys schost 2 phys schost 1 none global dev did rdsk d4 phys schost 2 phys schost 1 none global dev did rdsk d5 phys schost 2 none global dev did rdsk d6 phys schost 2 none global nas_filerl netapp root nas2 netapp Llai dev r
346. ger debe usar el comando metaset C take cuando el grupo de dispositivos est en estado de mantenimiento Al usar metaset t el grupo de dispositivos se pone en l nea como parte del proceso de pasar a ser propietario Si va a importar un grupo de discos de VxVM debe usar el indicador t al importar el grupo de discos Al usar el indicador t se impide que el grupo de discos se importe autom ticamente si se rearranca este nodo En Veritas Volume Manager vxdg t import disk group name Complete el procedimiento de reparaci n que debe realizar Deje libre la propiedad del conjunto o del grupo de discos Precauci n Antes de sacar el grupo de dispositivos fuera del estado de mantenimiento debe liberar la propiedad del conjunto o grupo de discos Si hay un error al liberar la propiedad pueden perderse datos a En Solaris Volume Manager metaset C release s diskset En Veritas Volume Manager vxdg deport diskgroupname Ponga en linea el grupo de dispositivos cldevicegroup online devicegroup cldevicegroup enable devicegroup Colocaci n de un grupo de dispositivos en estado de mantenimiento Este ejemplo muestra c mo poner el grupo de dispositivos dg schost 1 en estado de mantenimiento y c mo sacarlo de dicho estado Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 171 cl ster Administraci n de la configuraci n del protocolo SCSI para di
347. gnado podr a ser sc_ipmp0elosc_ipmp0Gphys schost 1 donde el adaptador est en el nodo phys schost 1 que tiene un ID de nodo que es 1 No anule la configuraci n de un adaptador ni lo desconecte de un grupo de varias rutas de red IP sin haber conmutado primero las direcciones IP del adaptador que vaya a quitar para que se trasladen a otro adaptador alternativo del grupo mediante el comando if_mpadm 1M Evite volver a instalar los cables de los adaptadores en subredes distintas sin haberlos eliminado previamente de sus grupos de varias rutas respectivos Las operaciones relacionadas con los adaptadores l gicos se pueden realizar en un adaptador incluso si est activada la supervisi n del grupo de varias rutas Debe mantener al menos una conexi n de red p blica para cada nodo del cl ster Sin una conexi n de red p blica no es posible tener acceso al cl ster Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 243 Administraci n de redes p blicas ma Para ver el estado de los grupos de varias rutas de red IP de un cl ster use el comando clinterconnect status Si desea obtener m s informaci n sobre varias rutas de red IP consulte la documentaci n pertinente en el conjunto de documentaci n de administraci n de sistemas del sistema operativo Oracle Solaris TABLA 7 3 Mapa de tareas administrar la red p blica Versi n del sistema operativo Oracle Solaris Instrucciones Sistema op
348. grupaci n SCSLM_pool_nombre_zona con el conjunto de recursos predeterminado Cap tulo 10 Configuraci n del control del uso de la CPU 311 Configuraci n del control de la CPU 312 a Vincula de forma din mica el nodo sin votaci n con la agrupaci n SCSLM_pool nombre_zona Aumenta el n mero de recursos compartidos de CPU asignados al nodo sin votaci n zone cpu shares con el n mero especificado de recursos compartidos de CPU si todav a no se ha hecho Crea un proyecto con el nombre SCSLM_nombre_grupo_recursos en el nodo sin votaci n si todav a no se ha hecho Este proyecto es espec fico del grupo de recursos y se le asigna el n mero especificado de recursos compartidos de CPU proyecto recursos_compartidos_cpu m Inicia el recurso en el proyecto de SCSLM_ nombre_grupo_recursos Para obtener m s informaci n sobre c mo configurar la funci n de control de la CPU consulte la p gina de comando man rg_properties 5 Configure FSS como tipo de programador predeterminado para el sistema dispadmin d FSS FSS se convierte en el programador predeterminado a partir del siguiente rearranque Para que esta configuraci n se aplique de forma inmediata use el comando priocntl priocntl s C FSS Mediante la combinaci n de los comandos priocntl y dispadmin se asegura de que FSS se convierta en el programador predeterminado inmediatamente y de que permanezca despu s del rearranque Para obtener m s informac
349. guraci n de la replicaci n en la p gina 407 Procedimiento para comprobar la configuraci n de la replicaci n Complete el procedimiento Instant nea de un momento determinado en la p gina 406 Obtenga acceso al nodo nodea y al nodo nodeC como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster admin Compruebe que el cl ster primario est en modo de replicaci n con la sincronizaci n autom tica activada Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm P La salida debe ser similar a la siguiente dev vx rdsk devgrp vol01 gt lhost reprg sec dev vx rdsk devgrp vol01 autosync on max q writes 4194304 max q fbas 16384 mode sync ctag devgrp state replicating Ap ndice A Ejemplo 407 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 408 En modo de replicaci n el estado es Logging y el estado activo de la sincronizaci n autom tica es off Cuando se escribe en el volumen principal el software Sun StorageTek Availability Suite actualiza el volumen secundario Si el cl ster primario no est en modo de replicaci n p ngalo en ese modo Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n u Lhost reprg prim dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec dev vx rd
350. halt despu s ejecute el comando clzonecluster boot para arrancar el cl ster de zona Tambi n puede usar el comando clzonecluster reboot Si desea obtener m s informaci n consulte las p ginas de comando man cluster 1CL boot 1M y clzonecluster 1CL Cap tulo 3 Cierre y arranque de un cl ster 69 Descripci n general sobre el cierre y el arranque de un cl ster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos 1 Siel cl ster ejecuta Oracle RAC cierre todas las instancias de base de datos del cl ster que va a cerrar Consulte la documentaci n del producto de Oracle RAC para ver los procedimientos de cierre 2 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n RBAC solaris cluster admin en todos los nodos del cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global 3 Cierreel cl ster m Cierre el cl ster global phys schost cluster shutdown g0 y Sitiene un cl ster de zona ci rrelo desde un nodo del cl ster global phys schost clzonecluster halt zoneclustername Se cierran todos los nodos Para cerrar el cl ster de zona tambi n puede usar el comando cluster
351. he scversions c Nota Al ejecutar scversions al menos hay una reconfiguraci n de CMM depende de la situaci n Cambio de un parche de Oracle Solaris Cluster Para quitar un parche de Oracle Solaris Cluster al cl ster primero debe eliminar el parche nuevo de Oracle Solaris Cluster y a continuaci n volver a aplicar el parche anterior o la versi n actualizada Para quitar el parche de Oracle Solaris Cluster consulte los procedimientos siguientes Para volver a aplicar un parche de Oracle Solaris Cluster consulte uno de los procedimientos siguientes Aplicaci n de un parche de rearranque nodo en la p gina 321 Aplicaci n de un parche de rearranque cl ster en la p gina 326 Aplicaci n de un parche de Oracle Solaris Cluster que no sea de rearranque en la p gina 330 Nota Antes de aplicar un parche de Oracle Solaris Cluster consulte el archivo README del parche Eliminaci n de un parche de Oracle Solaris Cluster que no sea de rearranque Convi rtase en superusuario en un nodo de cl ster Elimine el parche que no sea de rearranque patchrm patchid Eliminaci n de un parche de Oracle Solaris Cluster que sea de rearranque Convi rtase en superusuario en un nodo de cl ster Cap tulo 11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 335 Aplicaci n de parches del software Oracle Solaris Cluster 2 Arranque el cluster en un modo que no sea de c
352. host 2 Ok dev did rdsk d4 schost 1 Ok schost 2 Ok dev did rdsk d5 schost 1 Ok schost 2 Ok dev did rdsk d6 schost 1 Ok schost 2 Ok dev did rdsk d7 schost 2 Ok dev did rdsk d8 schost 2 Ok Anulacion de la supervision de una ruta de disco Siga este procedimiento para anular la supervision de una ruta de disco Precauci n Los nodos que ejecuten versiones anteriores a Sun Cluster 3 1 10 03 no admiten la supervisi n de rutas de disco No utilice los comandos de supervisi n de rutas de disco en el transcurso de una actualizaci n Tras actualizarse todos los nodos deben estar en l nea para emplear los comandos de supervisi n de rutas de disco phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Determine el estado de la ruta de disco cuya supervisi n se vaya a anular cldevice status device Anule la supervisi n de las correspondientes rutas de disco en cada uno de los nodos cldevice unmonitor n node disk Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y siste
353. i n P asigna una funci n a una cuenta de usuario Haga clic en Finish Finalizar Abra una ventana de terminal y convi rtase en usuario root Inicie y detenga el daemon de memoria cach del servicio de nombres La funci n nueva no se activar hasta que se reinicie el daemon de memoria cach del servicio de nombres Despu s de convertirse en usuario root escriba el texto siguiente etc init d nscd stop etc init d nscd start Creacion de una funcion desde la linea de comandos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster admin Seleccione un m todo para crear una funci n Para las funciones de mbito local use el comando roleadd 1M para especificar una funci n local nueva y sus atributos Asimismo para las funciones de mbito local edite el archivo user_attr 4 para agregar un usuario con type role Use este m todo s lo en caso de emergencia Para las funciones de un servicio de nombres use el comando smrole 1M para especificar la funci n nueva y sus atributos Este comando requiere autenticaci n por parte del usuario o una funci n que a su vez pueda crear otras Puede aplicar el comando smrole a todos los servicios de nombres Este comando se ejecuta como cliente del servidor de Solaris Management Console Cap tulo 2 Oracle Solaris Cluster y RBAC 59 Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos d
354. i n de RBAC solaris cluster admin Cambie el cl ster primario a modo de registro Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n l lhost reprg prim dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Cuando se escribe en el volumen de datos del disco se actualiza el volumen de mapa de bits del mismo grupo de dispositivos No se produce ninguna replicaci n Confirme que el cl ster primario y el secundario est n en modo de registro con la sincronizaci n autom tica desactivada a En el nodo nodeA confirme el modo y la configuraci n Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm P La salida debe ser similar a la siguiente dev vx rdsk devgrp vol01 gt lhost reprg sec dev vx rdsk devgrp vol01 autosync off max q writes 4194304 max q fbas 16384 mode sync ctag devgrp state logging Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes v Antes de empezar 1 b En el nodo nodec confirme el modo y la configuraci n Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeC usr sbin sndradm P La salida debe ser simila
355. i n de cluster check en modo detallado respecto a los nodos phys schost 1 y phys schost 2 supera correctamente todas las comprobaciones Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 47 Procedimiento para empezar a administrar el cl ster Ejemplo 1 9 phys schost cluster check v h phys schost 1 phys schost 2 cluster check Requesting explorer data and node report from phys schost 1 cluster check Requesting explorer data and node report from phys schost 2 cluster check phys schost 1 Explorer finished cluster check phys schost 1 Starting single node checks cluster check phys schost 1 Single node checks finished cluster check phys schost 2 Explorer finished cluster check phys schost 2 Starting single node checks cluster check phys schost 2 Single node checks finished cluster check Starting multi node checks cluster check Multi node checks finished Listado de comprobaciones de validaci n interactivas En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que est n disponibles para ejecutarse en el cl ster En la salida del ejemplo aparece un muestreo de posibles comprobaciones las comprobaciones disponibles reales var an en cada configuraci n cluster list checks k interactive Some checks might take a few moments to run use v to see progress 16994574 48 Ejemplo 1 10 Moderate Fix for GLDv3 interfaces on cluster transport vuln
356. i n posibles 307 Introducci n al control de la CPU 308 TABLA 10 1 Situaciones hipot ticas de control de la CPU Descripci n El grupo de recursos se ejecuta en el nodo de votaci n del cl ster global Asigne recursos compartidos de CPU alos grupos y las zonas de recursos para ello proporcione valores para project cpu shares y zone cpu shares Este procedimiento es v lido con nodos sin votaci n de cl ster global configurados o no configurados Instrucciones Control del uso de la CPU en el nodo de votaci n de un cl ster global en la p gina 309 El grupo de recursos se ejecuta en una zona sin votaci n de cl ster global mediante el conjunto de procesadores predeterminado Asigne recursos compartidos de CPU alos grupos y las zonas de recursos para ello proporcione valores para project cpu shares y zone cpu shares Efect e este procedimiento si no necesita controlar el tama o del conjunto de procesadores Control del uso de la CPU en un nodo sin votaci n de cl ster global con el conjunto de procesadores predeterminado en la p gina 311 El grupo de recursos se ejecuta en un nodo sin votaci n de cl ster global con un conjunto de procesadores dedicado Asigne recursos compartidos de CPU a grupos de recursos para ello proporcione valores para project cpu shares zone cpu shares y el n mero m ximo de procesadores en un conjunto de procesadores dedicado Establezca el
357. i n sobre c mo configurar un tipo de planificaci n consulte las paginas de comando man dispadmin 1M y priocnt1 1 Nota Si FSS no es el programador predeterminado la asignaci n de recursos compartidos de CPU no se lleva a cabo En todos los nodos que usen un control de la CPU configure el n mero de recursos compartidos para el nodo de votaci n de cl ster global y el n mero m nimo de CPU disponibles en el conjunto de procesadores predeterminado La configuraci n de estos par metros protege los procesos que se est n ejecutando en el nodo de votaci n de competir por las CPU con los procesos que se est n ejecutando en nodos sin votaci n de cl ster global Si no asigna un valor a las propiedades global zoneshares y defaultpsetmin asumen sus valores predeterminados clnode set p globalzoneshares integer p defaultpsetmin integer node p globalzoneshares entero Configura el n mero de recursos compartidos asignados al nodo de votaci n El valor predeterminado es 1 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n del control de la CPU pdefaultpsetmin minientero_pestablecido_predeterminado Establece el n mero m nimo de CPU disponibles en el conjunto de procesadores predeterminado El valor predeterminado es 1 nodo Identifica los nodos donde se deben configurar propiedades Al configurar estas propiedades tambi n se establecen las del nodo de vo
358. i va a quitar el adaptador de host del nodo que va a desconectar cierre el nodo Si va a eliminar el adaptador de host del nodo que vaya a desconectar pase directamente al Paso 11 Elimine el adaptador de host del nodo Para el procedimiento de eliminar los adaptadores de host consulte la documentaci n relativa al nodo Encienda el nodo pero no lo haga arrancar Si se ha instalado software Oracle RAC elimine el paquete de software Oracle RAC del nodo que vaa desconectar phys schost pkgrm SUNWscucm Caution SPARC only Si no elimina el software Oracle RAC del nodo que desconect dicho nodo experimentar un error grave al volver a introducirlo en el cl ster lo que podr a provocar una p rdida de la disponibilidad de los datos Arranque el nodo en modo de cl ster En los sistemas basados en SPARC ejecute el comando siguiente Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Eliminaci n de nodos de un cl ster 13 14 ok boot En los sistemas basados en x86 ejecute los comandos siguientes Cuando aparezca el men GRUB seleccione la entrada de Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the c
359. icaci n de datos en la p gina 405 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Ejemplo de c mo efectuar una replicaci n de datos Esta secci n describe la ejecuci n de la replicaci n de datos en la configuraci n de ejemplo Esta secci n utiliza los comandos sndradm e iiadm del software Sun StorageTek Availability Suite Si desea m s informaci n sobre estos comandos consulte la documentaci n de Sun StorageTek Availability Suite Esta secci n incluye los procedimientos siguientes Replicaci n por duplicaci n remota en la p gina 405 Instant nea de un momento determinado en la p gina 406 Procedimiento para comprobar la configuraci n de la replicaci n en la p gina 407 Replicaci n por duplicaci n remota En este procedimiento el volumen maestro del disco primario se replica en el volumen maestro del disco secundario El volumen maestro es vol01 y el de mapa de bits de duplicaci n remota es vol04 Obtenga acceso al nodo nodeA como superusuario Compruebe que el cl ster est en modo de registro Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm P La salida debe ser similar a la siguiente dev vx rdsk devgrp vol01 gt lhost reprg sec dev vx rdsk devgrp vol01 autosync off
360. icaciones Cl ster Cl ster primario secundario Si desea actualizar el DNS utilice el comando nsupdate Para obtener m s informaci n consulte la p gina de comando man nsupdate 1M Si desea ver un ejemplo de ocuparse de una migraci n tras error consulte Ejemplo de c mo controlar una migraci n tras error en la p gina 410 Despu s de la reparaci n el cl ster primario puede volver a estar en l nea Para volver al cl ster primario original siga estos pasos 1 Sincronice el cl ster primario con el secundario para asegurarse de que el volumen principal est actualizado 2 Actualice el DNS de modo que los clientes tengan acceso a la aplicaci n en el cl ster primario Mapa de tareas ejemplo de configuraci n de una replicaci n de datos La Tabla A 1 enumera las tareas de este ejemplo de configuraci n de replicaci n de datos para una aplicaci n de NFS mediante el software Sun StorageTek Availability Suite TABLA A 1 Mapa de tareas ejemplo de configuraci n de una replicaci n de datos Tarea Instrucciones 1 Conectar e instalar los cl sters Conexi n e instalaci n de cl sters en la p gina 385 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite TABLA A 1 Mapa de tareas ejemplo de configuraci n de una replicaci n de datos
361. idsnianie iinis 127 V Actualizaci n del espacio de nombre de dispositivos globales cinicicininnoninnnmmsm 130 V C mo cambiar el tama o de un dispositivo lofi que se utiliza para el espacio de nombres dedispositivos globales ccriciinnic li diiniita iii 131 Migraci n del espacio de nombre de dispositivos globales 00 0 0 cesses 132 VW Migraci n del espacio de nombre de dispositivos globales desde una partici n dedicada hasta un dispositive de Tofi iii ib 133 VW Migraci n del espacio de nombre de dispositivos globales desde un dispositivo de lofi hasta una partici n dedicada uiiiarii ii n da 134 Adici n y registro de grupos de dispositivos sesarscernarsrouanairnaracenanmeanis 136 V Adici n y registro de un grupo de dispositivos Solaris Volume Manager 136 V Adici n y registro de un grupo de dispositivos disco b sico oo eeseeeeeeseeseeseeeeseees 138 V Adici n y registro de un grupo de dispositivos replicado ZFS cccccccconanininnecnninannncnncnanos 139 Y Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager 141 Mantenimiento de grupos de dispositivos 0 0 ees eseeseesesseseessseeeesseeseeeeeseseteeesnsaeseeaneaneaes 141 Eliminaci n y anulaci n del registro de un grupo de dispositivos Solaris Volume Manara a a Y Eliminaci n de un nodo de todos los grupos de dispositivos W Eliminaci n de un nodo de un grupo de dispositivos Solaris Volume Manager 143 V Creaci n d
362. iento desde un nodo del cl ster global Inicie la utilidad de configuraci n phys schost clsetup Para un cl ster global inicie la utilidad con el comando cl setup phys schost clsetup Aparece el men principal Enelcaso de un cl ster de zona inicie la utilidad con el comando clzonecluster El cl ster de zona de este ejemplo es zona_sc phys schost clzonecluster configure sczone Con la opci n siguiente puede ver las acciones disponibles en la utilidad clzc sczone gt Enel men elija la configuraci n Siga las instrucciones en pantalla para finalizar una tarea Si desea ver m s detalles consulte las instrucciones de Configuraci n de un cl ster de zona de Oracle Solaris Cluster Software Installation Guide Consulte la ayuda en l nea de clsetup o clzonecluster para obtener m s informaci n Visualizaci n de la informaci n de parches de Oracle Solaris Cluster Para realizar este procedimiento no es necesario iniciar sesi n como superusuario phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Ejemplo 1 1 Ejemplo 1 2 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los
363. iguraci n de software de Solaris Volume Manager en la p gina 305 1 Guarde la tabla de particiones para cada uno de los discos del conjunto de discos usr sbin prtvtoc dev global rdsk diskname gt etc lwm diskname vtoc 2 Guarde la configuraci n de software de Solaris Volume Manager bin cp etc lvm md tab etc lvm md tab_ORIGINAL usr sbin metastat p s setname gt gt etc lvwm md tab Nota Otros archivos de configuraci n como el archivo etc vfstab pueden hacer referencia al software Solaris Volume Manager Este procedimiento presupone que se reconstruye una configuraci n de software de Solaris Volume Manager id ntica y por tanto la informaci n de montaje es la misma Si el explorador de Oracle SUNWexplo se ejecuta en un nodo propietario del conjunto recuperar la informaci n de los comandos prtvtoc y metaset p Y C mo purgar el conjunto de discos da ado Al purgar un conjunto de un nodo o de todos los nodos se elimina la configuraci n Para depurar un conjunto de discos de un nodo el nodo no debe ser propietario del conjunto de discos 1 Ejecute el comando purge en todos los nodos usr sbin metaset s setname P Al ejecutar este comando se elimina la informaci n del conjunto de discos de las r plicas de base de datos as como del dep sito de Oracle Solaris Cluster Las opciones P y C permiten purgar un conjunto de discos sin tener que reconstruir completamente el entorno de Solaris Vo
364. inar en estado de mantenimiento y a continuaci n quitar el dispositivo de qu rum con el comando clquorum remove qu rum Mientras el cl ster se halla en modo de instalaci n las opciones del men de administraci n del cl ster clsetup 1CL no est n disponibles Consulte Colocaci n de un nodo en estado de mantenimiento en la p gina 279 si desea obtener m s informaci n Compruebe que se haya quitado el dispositivo de qu rum clquorum list v Eliminaci n del ltimo dispositivo de qu rum En este ejemplo se muestra c mo poner el cl ster en modo de mantenimiento y quitar el ltimo dispositivo de qu rum de la configuraci n del cl ster Become superuser or assume a role that provides solaris cluster modify RBAC authorization on any cluster node Place the cluster in install mode cluster set p installmode enabled Remove the quorum device clquorum remove d3 Verify that the quorum device has been removed clquorum list Quorum scphyshost 1 scphyshost 2 scphyshost 3 ay Type node node node Y Sustituci n de un dispositivo de qu rum 210 Siga este procedimiento para reemplazar un dispositivo de qu rum por otro dispositivo de qu rum Puede reemplazar un dispositivo de qu rum por un dispositivo de tipo similar por ejemplo sustituir un dispositivo de NAS por otro dispositivo de NAS o bien reemplazar el dispositivo por uno de otro tipo diferente por ejemplo sustituir un disposi
365. ios para un grupo de dispositivos 10 164 V Enumeraci n de la configuraci n de grupos de dispositivos coccinnainncnnnocancaninciniincanios Y Conmutaci n al nodo primario de un grupo de dispositivos ociininninninnonenncnnnncereccoss Y Colocaci n de un grupo de dispositivos en estado de mantenimiento Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento ta daa 172 W Visualizaci n de la configuraci n del protocolo SCSI global predeterminado de todos los dispositivos de almacenamiento seserian inea iia a Es D 172 Y Visualizaci n del protocolo SCSI de un solo dispositivo de almacenamiento 173 Y Modificaci n de la configuraci n del protocolo de protecci n global predeterminado para todos los dispositivos de almacenamiento oo eeeceeseseeeseesesesesesesenceeeseseseeneaeeeeseeeeeaeseeneaees 174 Y Modificaci n del protocolo de protecci n en un solo dispositivo de almacenamiento 176 Administraci n de sistemas de archivos de ClUster ooooconincnconionnnnnnnnnnncrnnnencnnnrcnncn corro ronca 178 Y Adici n de un sistema de archivos de cl ster c oconcicnicionincnnnnncnncnncnnncin coccion conan 178 V Eliminaci n de un sistema de archivos de cl ster ceecesesessesseesesseeseesteseesneeesneeseeneeneens 182 Y Comprobaci n de montajes globales en un cl ster oes esses eeseesteesesaeesneateaeeatennens 184 Administraci n de la supervisi n de rutas de disco coccnccionio
366. ir agregando el nuevo dispositivo de qu rum Si se agrega correctamente el nuevo dispositivo de qu rum la utilidad clsetup muestra el correspondiente mensaje 11 Compruebe que se haya agregado el dispositivo de qu rum clquorum list v Ejemplo6 4 Adici n de un dispositivo de qu rum de servidor de qu rum En el ejemplo siguiente se muestra el comando clquorum generado por cl setup al agregar un dispositivo de qu rum de servidor de qu rum El ejemplo tambi n muestra un paso de comprobaci n Become superuser or assume a role that provides solaris cluster modify RBAC authorization on any cluster node Start the clsetup utility clsetup Select Quorum gt Add a quorum device Answer the questions when prompted You will need the following information Information Example Quorum Device quorum server quorum device 206 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum Name qd1 Host Machine Name 10 11 124 84 Port Number 9001 Verify that the clquorum command was completed successfully clquorum add t quorum_server p qshost 10 11 124 84 p port 9001 qd1 Command completed successfully Quit the clsetup Quorum Menu and Main Menu Verify that the quorum device is added clquorum list v Quorum Type qd1 quorum server scphyshost 1 node scphyshost 2 node clquorum status Cluster Quoru
367. irectors Device Cap Sym Physical SA P DA IT Config Attribute Sts MB 0067 c5t600604800001879901 16D 0 02A C1 RDF2 Mir N Grp d Rw 4315 0068 c5t600604800001879901 16D 0 16B C0 RDF1 Mir N Grp d Rw 4315 0069 c5t600604800001879901 16D 0 1A CO RDF1 Mir N Grp d RW 4315 En todos los nodos de la parte de RDF1 escriba symdg type RDF1 create dgl symld g dgl add dev 0067 En todos los nodos de la parte de RDF2 escriba symdg type RDF2 create dgl symld g dgl add dev 0067 EJEMPLO 5 16 Comprobaci n de la configuraci n de la replicaci n de datos Desde un nodo del cl ster escriba Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento EJEMPLO 5 16 Comprobaci n de la configuraci n de la replicaci n de datos Continuaci n symdg show dgl Group Name dgl Group Type RDF1 RDFA Device Group in GNS No Valid Yes Symmetrix ID 000187900023 Group Creation Time Thu Sep 13 13 21 15 2007 Vendor ID EMC Corp Application ID SYMCLI Number of STD Devices in Group Number of Associated GK s Number of Locally associated BCV s Number of Locally associated VDEV s Number of Remotely associated BCV s STD RDF Number of Remotely associated BCV s BCV RDF Number of Remotely assoc d RBCV s RBCV RDF eeoooe or Standard STD Devices 1 Sym Cap LdevName PdevName Dev Att Sts MB
368. is el disco se vuelve a etiquetar como disco EFI se pierde la informaci n de configuraci n de qu rum y el disco ya no proporciona un voto de qu rum al cl ster Una vez que un disco est en una agrupaci n de almacenamiento ya se puede configurar como dispositivo de qu rum Tambi n se puede anular la configuraci n del disco agregarlo a la agrupaci n de almacenamiento y luego volverlo a configurar como dispositivo de qu rum Nota El comando cl setup es una interfaz interactiva para los dem s comandos de Oracle Solaris Cluster Cuando se ejecuta clsetup el comando genera los pertinentes comandos en este caso se trata de comandos clquorum Los comandos generados se muestran en los ejemplos que figuran al final de los procedimientos Para ver la configuraci n de qu rum use clquorum show El comando clquorum list muestra los nombres de los dispositivos de qu rum del cl ster El comando clquorum status ofrece informaci n sobre el estado y el n mero de votos La mayor a de los ejemplos de esta secci n proceden de un cl ster de tres nodos TABLA 6 1 Lista de tareas administrar el qu rum Tarea Instrucciones Agregar un dispositivo de qu rum a un Adici n de un dispositivo de qu rum en la p gina 196 cl ster mediante clsetup 1CL Eliminar un dispositivo de qu rum deun Eliminaci n de un dispositivo de qu rum en la p gina 208 cl ster mediante clsetup para generar clquorum Eliminar el ltimo di
369. isi n A Procedimiento para empezar a administrar el cl ster Adapter Adapter Adapter Property device instance Property lazy free Adapter Adapter Adapter Adapter Adapter Adapter Property nw_ bandwidth Property bandwidth Property ip address Property netmask Port Names Port State 0 Transport Adapter Adapter State Adapter Transport Type Adapter Property device name Adapter Property device instance Adapter Property lazy free Adapter Adapter Adapter Adapter Adapter Adapter Adapter Adapter Property nw_ bandwidth Property bandwidth Property ip address Property netmask Port Names Port State Q Property dlpi heartbeat timeout Adapter Property dlpi heartbeat quantum Property dlpi heartbeat timeout Property dlpi heartbeat quantum 0 0 10000 1000 80 10 172 16 0 130 255 255 255 128 0 Enabled qfe3 Enabled dlpi qfe 3 1 10000 1000 80 10 172 16 1 2 255 255 255 128 0 Enabled SNMP MIB Configuration on phys schost 2 SNMP MIB Name State Protocol Event Disabled SNMPv2 SNMP Host Configuration on phys schost 2 SNMP User Configuration on phys schost 2 Transport Cables Transport Cable Cable Endpoint1 Cable Endpoint2 Cable State Transport Cable Cable Endpoint1 Cable Endpoint2 Cable State Transport Cable Cable Endpoint1 Cable Endpoint2 Cable State Transport Cable Cable
370. itivos o grupos de discos del administrador de vol menes es necesario estar en el nodo del cl ster que sirve como nodo primario del grupo En general no es necesario administrar el espacio de nombre del dispositivo global El espacio de nombre global se establece autom ticamente durante la instalaci n y se actualiza tambi n de manera autom tica al reiniciar el sistema operativo Oracle Solaris Sin embargo si el espacio de nombre global debe actualizarse el comando cldevice populate puede ejecutarse desde cualquier nodo del cl ster Este comando hace que el espacio de nombre global se actualice en todos los dem s nodos miembros del cl ster y en los nodos que posteriormente tengan la posibilidad de asociarse al cl ster Permisos de dispositivos globales en Solaris Volume Manager Las modificaciones en los permisos del dispositivo global no se propagan autom ticamente a todos los nodos del cl ster para Solaris Volume Manager y los dispositivos de disco Si desea modificar los permisos de los dispositivos globales los cambios deben hacerse de forma manual en todos los nodos del cl ster Por ejemplo para modificar los permisos del dispositivo global dev global dsk d3s0 y establecer un valor de 644 debe ejecutarse el comando siguiente en todos los nodos del cl ster chmod 644 dev global dsk d3s0 VxVM no admite el comando chmod Para modificar los permisos del dispositivo global en VxVM consulte la gu a del administrador de V
371. ivos devgrp stor rg El nombre del grupo de recursos de replicaciones Agregue un recurso SUNW HAStoragePlus al grupo de recursos de replicaciones nodeC clresource create t SUNW HAStoragePlus Y p GlobalDevicePaths devgrp Y p AffinityOn True Y devgrp stor create Crea el recurso t Especifica el tipo de recurso p GlobalDevicePaths Especifica la propiedad de la extensi n en la que se basa Sun StorageTek Availability Suite p AffinityOn True Especifica que el recurso SUNW HAStoragePlus debe realizar una conmutaci n de afinidad para los dispositivos globales y los sistemas de archivos definidos en x GlobalDevicePaths Por ese motivo si el grupo de recursos de replicaciones migra tras error o se conmuta el grupo de dispositivos asociados tambi n se conmuta devgrp stor El recurso de HAStoragePlus para el grupo de recursos de replicaciones Para obtener m s informaci n sobre estas propiedades de extensi n consulte la p gina de comando man SUNW HAStoragePlus 5 Agregue un recurso de nombre de host l gico al grupo de recursos de replicaciones nodeC clreslogicalhostname create g devgrp stor rg lhost reprg sec El nombre de host l gico para el grupo de recursos de replicaciones en el cl ster primario es lhost reprg sec Habilite los recursos administre el grupo de recursos y p ngalo en l nea nodeC clresourcegroup online e M n nodeC devgrp stor rg online Lo pone en l nea e Habilita los r
372. ivos est ticos necesitan varios minutos para cambiar el nodo primario de replicaci n y pueden afectar al tiempo de migraci n tras error Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de cl ster En este cap tulo se ofrece informaci n sobre los procedimientos de administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de cl ster Informaci n general sobre la administraci n de dispositivos globales y el espacio de nombre global en la p gina 97 Administraci n de dispositivos replicados basados en almacenamiento en la p gina 101 Informaci n general sobre la administraci n de sistemas de archivos de clusters en la p gina 125 Administraci n de grupos de dispositivos en la p gina 127 Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento en la p gina 172 Administraci n de sistemas de archivos de cl ster en la p gina 178 Administraci n de la supervisi n de rutas de disco en la p gina 184 Si desea ver una descripci n detallada de los procedimientos relacionados con el presente cap tulo consulte la Tabla 5 4 Si desea obtener informaci n conceptual sobre los dispositivos globales el espacio de nombre global los grupos de dispositiv
373. l Nota Si no configura una direcci n IP para cada nodo de cl ster de zona ocurrir n dos cosas 1 Ese cl ster de zona espec fico no podr configurar dispositivos NAS para utilizar en el cl ster de zona El cl ster utiliza la direcci n IP del nodo de cl ster de zona para comunicarse con el dispositivo NAS por lo que no tener una direcci n IP impide la admisi n de cl steres para el aislamiento de dispositivos NAS 2 El software del cl ster activar cualquier direcci n IP de host l gico en cualquier NIC Si el nodo de cl ster de zona original no tiene una direcci n IP o un NIC especificados no tiene que especificar esta informaci n para el nuevo nodo de cl ster de zona 247 Adici n de nodos a un cl ster 248 En este cap tulo phys schost refleja una solicitud de cl ster global El indicador de solicitud de shell interactivo de clzonecluster es clzc schost gt La tabla siguiente muestra una lista con las tareas que se deben realizar para agregar un nodo a un cl ster ya existente Efect e las tareas en el orden en que se muestran TABLA 8 1 Mapa de tareas agregar un nodo a un cl ster global o a un cl ster de zona existente Tarea Instrucciones Instalar el adaptador de host en el nodo y comprobar que las interconexiones ya existentes del cl ster sean compatibles con el nuevo nodo Agregar almacenamiento compartido Agregar el nodo a la lista de nodos autorizados con clsetup Instalar
374. l El cl ster de zona debe estar configurado antes de eliminarlo Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en el nodo del cl ster global Siga todos los pasos de este procedimiento desde un nodo del cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Ejecuci n de tareas administrativas del cl ster de zona Ejemplo 9 11 Elimine todos los grupos de recursos y los recursos del cl ster de zona phys schost clresourcegroup delete F Z zoneclustername Nota Este paso se efect a en un nodo del cl ster global Para llevar a cabo este paso en un nodo del cl ster de zona inicie sesi n en el nodo del cl ster de zona y omita Z cl ster_zona desde el comando Detenga el cl ster de zona phys schost clzonecluster halt zoneclustername Desinstale el cluster de zona phys schost clzonecluster uninstall zoneclustername Anule la configuraci n del cl ster de zona phys schost clzonecluster delete zoneclustername Eliminaci n de un cl ster de zona de un cl ster global phys schost clresourcegroup delete F Z sczone phys schost clzonecluster halt sczone phys schost clzonecluster uninstall sczone phys schost clzonecluster delete sczone Eliminacion de un sistema de archivos desde un cluster de zona Para exportar un sistema de archivos a un cluster zona utilice un montaje dire
375. l ster Para obtener m s informaci n sobre c mo arrancar un nodo en un modo que no sea de cl ster consulte Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 3 Elimine el parche de rearranque patchrm patchid 4 Rearranque el cluster en modo de cluster reboot 5 Repita los pasos del 2 al 4 para todos los nodos del cl ster 336 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 12 Copias de seguridad y restauraciones de cl sters Este cap tulo contiene las secciones siguientes Copia de seguridad de un cl ster en la p gina 337 Restauraci n de los archivos del cl ster en la p gina 349 Copia de seguridad de un cl ster TABLA 12 1 Mapa de tareas hacer una copia de seguridad de los archivos del cl ster Tarea Instrucciones Buscar los nombres de los sistemas de archivos de los que desee realizar una copia de seguridad Calcular las cintas necesarias para guardar una copia de seguridad completa Hacer una copia de seguridad del sistema de archivos root Realizar una copia de seguridad en l nea para sistemas de archivos duplicados o plexados Hacer una copia de seguridad de la configuraci n del cl ster Realizar una copia de seguridad de la configuraci n de partici n del disco de almacenamiento B squeda de los nombres de sistema de archivos para hacer copias de seguridad en la p gina 338
376. l ster global Cierre el nodo del cl ster global con los comandos clnode evacuate y shutdown El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia Este comando tambi n conmuta todos los grupos de recursos de las zonas globales y no globales del nodo especificado y los lleva a las zonas globales o no globales de otros nodos que se sit en a continuaci n en el orden de preferencia Cierre un cl ster global en concreto phys schost clnode evacuate node phys schost shutdown g0 y Cierre un nodo del cl ster de zona en concreto a partir de un nodo del cluster global phys schost clzonecluster halt n node zoneclustername Tambi n puede utilizar los comandos clnode evacuate y shutdown dentro del cluster de zona Compruebe que el nodo del cluster global muestre el indicador ok en un sistema basado en Oracle Solaris o el mensaje Press any key to continue Pulse cualquier tecla para continuar en el men de GRUB de un sistema basado en x86 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Cierre y arranque de un solo nodo de un cl ster Arranque el nodo del cl ster global en un modo que no sea de cl ster En los sistemas basados en SPARC ejecute el comando siguiente ok boot xs En los sistemas basados en x86 ejecute los comandos siguientes En el men de GRUB utilice las teclas de flecha para
377. l o de un cl ster de zona Puede utilizar la l nea de comandos la utilidad clsetup o la interfaz del Oracle Solaris Cluster Manager para configurar los l mites de carga En los procedimientos siguientes se explica c mo configurar l mites de carga mediante la l nea de comandos C mo configurar l mites de carga en un nodo Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en cualquier nodo del cl ster global Cree y configure un l mite de carga para los nodos que quiera usar para el equilibrado de carga clnode create loadlimit p limitname mem_load Z zcl p softlimit 11 p hardlimit 20 nodel node2 node3 En este ejemplo el nombre del cl ster de zona es zc1 La propiedad de ejemplo se llama mem_load y tiene un l mite flexible de 11 y un l mite de carga fijo de 20 Los l mites fijos y flexibles son argumentos opcionales y si no se definen de forma espec fica el valor predeterminado ser ilimitado Consulte la p gina de comando man clnode 1CL para obtener m s informaci n Asigne valores de factor de carga a cada grupo de recursos clresourcegroup set p load_factors mem_load 50 factor2 1 rgl rg2 En este ejemplo los factores de carga se definen en los dos grupos de recursos rgl y rg2 La configuraci n de factor de carga se corresponde con los l mites de carga definidos para los nodos Tambi n puede realizar este paso durante la creaci n del grupo de rec
378. l qu rum en la p gina 220 Inicio de un servidor de qu rum en la p gina 220 Detenci n de un servidor de qu rum en la p gina 221 Visualizaci n de informaci n sobre el servidor de qu rum en la p gina 222 Limpieza de la informaci n caducada sobre cl sters del servidor de qu rum en la p gina 223 Cap tulo6 Administraci n de qu rum 219 Administraci n de servidores de qu rum de Oracle Solaris Cluster 220 Ejemplo 6 11 Si desea obtener informaci n sobre c mo instalar y configurar servidores de qu rum de Oracle Solaris Cluster consulte Instalaci n y configuraci n del software Servidor de qu rum de Oracle Solaris Cluster Software Installation Guide Inicio y detenci n del software del servidor del qu rum Estos procedimientos describen c mo iniciar y detener el software Oracle Solaris Cluster De manera predeterminada estos procedimientos inician y detienen un solo servidor de qu rum predefinido salvo que haya personalizado el contenido del archivo de configuraci n del servidor de qu rum etc scqsd scqsd conf El servidor de qu rum predeterminado est vinculado al puerto 9000 y usa el directorio var scqsd para la informaci n de qu rum Si desea informaci n sobre c mo instalar el software del servidor de qu rum consulte Instalaci n y configuraci n del software Servidor de qu rum de Oracle Solaris Cluster Software Installation Guide Para obtener informaci
379. la configuraci n de un cl ster global o un cl ster de zona Siga todos los pasos de este procedimiento desde un nodo del cl ster global cluster show Al ejecutar el comando cluster show desde un nodo de votaci n de cl ster global se muestra informaci n detallada sobre la configuraci n del cl ster e informaci n sobre los cl sters de zona si es que est n configurados Tambi n puede usar el comando clzonecluster show para visualizar la informaci n de configuraci n s lo de los cl sters de zona Entre las propiedades de un cl ster de zona est n el nombre el tipo de IP el arranque autom tico y la ruta de zona El subcomando show se ejecuta dentro de un cl ster de zona y se aplica s lo a ese cl ster de zona Al ejecutar el comando clzonecluster show desde un nodo del cl ster de zona s lo se recupera el estado de los objetos visibles en ese cl ster de zona en concreto Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Para visualizar m s informaci n acerca del comando cluster utilice las opciones para obtener m s detalles Si desea obtener m s detalles consulte la p gina de comando man cluster 1CL Consulte la p gina de comando man clzonecluster 1CL si desea obtener m s informaci n sobre clzonecluster Ejemplo 1 6 Visualizaci n de la configuraci n del cl ster global En el ejemplo siguiente figura informaci n
380. la consola cuando el nodo phys schost 1 se cierra y se reinicia en un modo que no es de cl ster La opci n g0 establece el per odo de gracia en cero la opci n y proporciona una respuesta yes autom tica para la pregunta de confirmaci n y la opci n i0 invoca el nivel de ejecuci n 0 cero Los mensajes de cierre correspondientes a este nodo tambi n aparecen en las consolas de los otros nodos del cl ster global phys schost clnode evacuate phys schost 1 phys schost cluster shutdown g0 y Shutdown started Wed Mar 10 13 47 32 phys schost 1 cl_runtime WARNING CMM monitoring disabled phys schost 1 rg_name schost sa 1 offline node phys schost 2 num of node phys schost 1 INIT New run level 0 The system is coming down Please wait System services are now being stopped Print services stopped syslogd going down on signal 15 The system is down syncing file systems done WARNING node phys schost 1 is being shut down Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Reparaci n de un sistema de archivos var que haya alcanzado el l mite de su capacidad Program terminated ok boot x Not booting as part of cluster The system is ready phys schost 1 console login Reparacion de un sistema de archivos var que haya alcanzado el limite de su capacidad El software de Oracle Solaris y el de Oracle Solaris Cluster dejan constancia de los mens
381. las usr cluster lib sc scsi c scrub d dev did rdsk didnames2 Pase a ser propietario del metaconjunto en el nodo pasivo metaset s disksetname C take f Nota Utilice el comando siguiente si est aplicando parches en una zona de conmutaci n por error que tiene zpools para la ruta de la zona zpool import R pool_name Monte el sistema o los sistemas de archivos que contengan la ruta de zona en el nodo pasivo mount device mountpoint Nota Si est aplicando parches en una zona de conmutaci n por error que tiene zpools para la ruta de la zona omita este paso y el Paso 15 Cambie al modo monousuario en el nodo pasivo init s Detenga todas las zonas arrancadas posibles que no est n bajo el servicio de datos de Oracle Solaris Cluster para el control del contenedor Solaris zoneadm z zonename halt Opcional Si desinstala varios parches por motivos de rendimiento puede elegir arrancar todas las zonas configuradas en modo monousuario zoneadm z zonename boot s Aplique los parches Capitulo11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 333 Aplicaci n de parches del software Oracle Solaris Cluster 334 19 20 21 22 23 24 25 26 27 28 29 30 31 Rearranque el nodo y espere hasta que hayan finalizado todos los m todos de inicio SMF Ejecute el comando svcs a s lo despu s de haber rearrancado el nodo reboot s
382. lecer ipge ipge_taskq_disable 1 ixge establecer ixge ixge_taskq_disable 1 7 Escriba el n mero correspondiente a la opci n de agregar el conmutador de transporte Siga las instrucciones y escriba la informaci n que se solicite Cap tulo 7 Administraci n de interconexiones de clusters y redes p blicas 231 Administraci n de interconexiones de cl sters 8 Compruebe que se haya agregado el cable de transporte de cl ster el adaptador o el conmutador de transporte clinterconnect show node adapter adapternode clinterconnect show node adapter clinterconnect show node switch Adici n de un cable de transporte de cl ster un adaptador de transporte o un conmutador de transporte Ejemplo 7 2 En el ejemplo siguiente se muestra c mo agregar un cable de transporte un adaptador o un conmutador de transporte a un nodo mediante la utilidad clsetup Ensure that the physical cable is installed Start the clsetup utility clsetup Select Cluster interconnect Select either Add a transport cable Add a transport adapter to a node or Add a transport switch Answer the questions when prompted You Will Need Information Example node names phys schost 1 adapter names qfe2 switch names hub2 transport type dlpi Verify that the clinterconnect command completed successfully Command completed successfully Quit the clsetup Cluster Interconnect Menu and Main Menu Verify that the cable adapt
383. lete F Z zoneclustername dev_zone_resources Determine la entrada de coincidencia de los dispositivos que se van a eliminar phys schost clzonecluster show v zoneclustername Resource Name device match lt device match gt Elimine los dispositivos de la configuraci n del cl ster de zona phys schost clzonecluster configure zoneclustername clzc zoneclustername gt remove device match lt devices_match gt clzc zoneclustername gt commit clzc zoneclustername gt end Rearranque el cl ster de zona phys schost clzonecluster reboot zoneclustername Compruebe que se hayan eliminado los dispositivos phys schost clzonecluster show v zoneclustername Eliminaci n de un conjunto de discos de SVM de un cluster de zona Este ejemplo muestra c mo eliminar un conjunto de discos de SVM denominado apachedg configurado en un cl ster de zona llamado sczone El n mero establecido del conjunto de discos apachedg es 3 El recurso zc_rs configurado en el cl ster utiliza los dispositivos Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Soluci n de problemas phys schost clzonecluster show v sczone Resource Name device match dev md apachedg dsk Resource Name device match dev md shared 3 dsk phys schost clresource delete F Z sczone zc_rs phys schost ls l dev md apachedg Lrwxrwxrwx 1 root root 8 Jul 22 23 11 dev md apachedg gt shared 3 phys schost clzonecl
384. licados basados en almacenamiento 101 125 dispositivos replicados con Hitachi TrueCopy 101 112 dispositivos replicados de EMC SRDF 113 125 interconexiones de cl sters y redes p blicas 227 245 IPMP 227 245 nodos sin votaci n de cl steres globales 18 qu rum 193 219 sistema de archivos de cl ster 125 agregar cables de transporte adaptadores y conmutadores 230 dispositivos de qu rum 197 dispositivos de qu rum de almacenamiento conectados a red 201 agregar Continuaci n dispositivos de qu rum de disco compartido con conexi n directa 198 dispositivos de qu rum de servidor de qu rum 204 dispositivos del qu rum NAS de Sun 199 dispositivos del qu rum NAS de Sun ZFS Storage Appliance 199 funciones RBAC 57 funciones personalizadas RBAC 60 grupo de dispositivos 136 138 139 grupos de dispositivos de Solaris Volume Manager 138 grupos de dispositivos de ZFS 139 nodos 247 253 nodos a un cl ster de zona 248 nodos a un cl ster global 248 nodos a un grupo de dispositivos 157 sistema de archivos de cl ster 178 182 sistemas SNMP 290 usuarios de SNMP 292 vol menes nuevos a grupos de dispositivos 147 almacenamiento SATA admitido como dispositivo del qu rum 196 anular registro grupos de dispositivos 156 grupos de dispositivos de Solaris Volume Manager 142 anular supervisi n rutas de disco 187 188 Aplicaci n de parches del software Oracle Solaris Cluster 319 321 aplicaciones de migraci n
385. line test_1 phys schost 1 Offline Offline phys schost 2 Stop failed Faulted test_1 phys schost 1 Online Online Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Antes de empezar phys schost 2 Online Online Device Instance Node Status dev did rdsk d2 phys schost 1 Ok dev did rdsk d3 phys schost 1 Ok phys schost 2 Ok dev did rdsk d4 phys schost 1 Ok phys schost 2 Ok dev did rdsk d6 phys schost 2 Ok Zone Clusters Zone Cluster Status Name Node Name Zone HostName Status Zone Status sczone schost 1 sczone 1 Online Running schost 2 sczone 2 Online Running Comprobaci n del estado de la red publica Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en linea de Oracle Solaris Cluster Manager para obtener mas informacion phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Para comprobar el estado de los grupos de varias rutas de red IP utilice el comando clnode 1CL con el subcomando status Todos los usuarios necesitan la autorizaci n RBAC solaris cluster read utilizar est
386. los nodos del cl ster aseg rese de poder asumir una funci n de RBAC que proporcione autorizaci n para todos los comandos de Oracle Solaris Cluster Esta serie de procedimientos de replicaci n de datos requiere las siguientes autorizaciones de RBAC de Oracle Solaris Cluster si el usuario no es un superusuario solaris cluster modify solaris cluster admin m solaris cluster read Consulte System Administration Guide Security Services para obtener mas informacion sobre el uso de las funciones de RBAC Consulte las paginas de comando man de Oracle Solaris Cluster para saber la autorizaci n de RBAC que requiere cada subcomando de Oracle Solaris Cluster 375 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 376 Comprensi n del software Sun StorageTek Availability Suite en un cl ster Esta secci n presenta la tolerancia ante problemas graves y describe los m todos de replicaci n de datos que utiliza el software AvailSuite La tolerancia ante problemas graves es la capacidad de un sistema para recuperar una aplicaci n en un cl ster alternativo cuando falla el cl ster primario La tolerancia ante problemas graves se basa en la replicaci n de datos y la migraci n tras error La migraci n tras error es la reubicaci n autom tica de un grupo de recursos o de dispositivos de un cl ster primario en un cl ster secundario Si falla el cl ster primario la aplicaci n y los
387. los siguientes servicios de Common Agent Container La lista siguiente proporciona algunos ejemplos de servicios y agentes que Common Agent Container puede administrar junto con los nombres de par metros correspondientes Puerto del conector JMX jmxmp connector port Puerto SNMP snmp adapter port Puerto de captura de SNMP snmp adapter trap port Puerto de secuencia de comandos commandstream adapter port Cambie un n mero de puerto opt bin cacaoadm set param parameterName parameter Value Repita el Paso 4 en todos los nodos del cl ster Reinicie Sun Java Web Console usr sbin smcwebserver start Reinicie el daemon de administraci n de Common Agent Container en todos los nodos del cl ster opt bin cacaoadm start Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de Oracle Solaris Cluster Manager v Cambio de la direcci n del servidor para Oracle Solaris Cluster Manager Si cambia el nombre de host de un nodo del cl ster debe cambiar la direcci n desde la que se ejecuta Oracle Solaris Cluster Manager El certificado de seguridad predeterminado se genera conforme al nombre de host del nodo al instalarse Oracle Solaris Cluster Manager Para restablecer el nombre de host del nodo elimine el archivo de certificado keystore y reinicie Oracle Solaris Cluster Manager Oracle Solaris Cluster Manager crea de forma autom tica un archivo de certificado con el nombre
388. lsnmpmib clnsmpuser cltelemetryattribute cluster m clzonecluster m scdidadm Los registros del archivo commandlog pueden contener los elementos siguientes Fecha y marca de tiempo Nombre del host desde el cual se ejecut el comando Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Ejemplo 1 13 IDde proceso del comando Nombre de inicio de sesi n del usuario que ejecut el comando Comando ejecutado por el usuario con todas las opciones y los operandos Nota Las opciones del comando se recogen en el archivo commandlog para poderlas identificar copiar pegar y ejecutar en el shell Estado de salida del comando ejecutado Nota Si un comando interrumpe su ejecuci n de forma an mala con resultados desconocidos el software Oracle Solaris Cluster no muestra un estado de salida en el archivo commandlog De forma predeterminada el archivo commandl og se archiva peri dicamente una vez por semana Para modificar las directrices de archivado del archivo commandlog utilice el comando crontab en todos los nodos del cl ster Para obtener m s informaci n consulte la p gina de comando man crontab 1 El software Oracle Solaris Cluster conserva en todo momento hasta un m ximo de ocho archivos commandlog archivados anteriormente en cada nodo del cl ster El archivo commandl og de la semana actual se denomina c
389. lte la p gina de comando man SUNW HAStoragePlus 5 Debe estar en l nea en el cl ster primario y fuera de l nea en el secundario El grupo de recursos de aplicaciones debe estar en l nea en el cl ster secundario cuando ste hace las funciones de cl ster primario La Figura A 4 ilustra la configuraci n de grupos de recursos de aplicaciones y de recursos de replicaciones en una aplicaci n de migraci n tras error Ap ndice A Ejemplo 381 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 382 FIGURA A 4 Configuraci n de grupos de recursos en una aplicaci n de migraci n tras error Cl ster primario Grupo de recursos de aplicaciones Recurso de aplicaci n Recurso HAStoragePlus Nombre de host l gico Grupo de recursos de replicaciones Recurso HAStoragePlus Nombre de host l gico Replicaci n por duplicaci n remota Cl ster secundario Grupo de recursos de aplicaciones Recurso de aplicaci n y Recurso HAStoragePlus y Nombre de host l gico Grupo de recursos de replicaciones Recurso HAStoragePlus Nombre de host l gico Configuraci n de grupos de recursos en una aplicaci n escalable En una aplicaci n escalable una aplicaci n se ejecuta en varios nodos co
390. lume Manager Nota Si se purga un conjunto de discos de varios propietarios mientras los nodos se est n iniciando fuera del modo cl ster es posible que tenga que instalar y utilizar el paquete Diagnostic Toolkit SUNWscdtk proporcionado por el equipo de asistencia de Oracle El kit de herramientas elimina la informaci n de los archivos de configuraci n dcs Consulte el Paso 2 304 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Soluci n de problemas 2 Si s lo desea eliminar la informaci n del conjunto de discos de las r plicas de base de datos utilice el comando siguiente usr sbin metaset s setname C purge Por lo general deber a utilizar la opci n P en lugar de la opci n C Utilizar la opci n C puede causar problemas al volver a crear el conjunto de discos porque el software Oracle Solaris Cluster sigue reconociendo el conjunto de discos a Siha utilizado la opci n C con el comando metaset primero cree el conjunto de discos para ver si se produce alg n problema b En caso afirmativo utilice el paquete Diagnostic Toolkit SUNWscdtk para eliminar la informaci n de los archivos de configuraci n dcs Si las opciones del comando purge no se completan correctamente compruebe si tiene instalados los parches m s recientes del n cleo y del metadispositivo y contacte con Oracle Solaris Cluster C mo volver a crear la configuraci n de software de Solaris V
391. luster con las interfaces gr ficas de usuario 369 Inicio del software Oracle Solaris Cluster Manager Reinicie el daemon de administraci n de Common Agent Container en el nodo en que regener las claves de seguridad phys schost 1 opt bin cacaoadm start Cree un archivo tar del directorio etc cacao instances default phys schost 1 cd etc cacao instances default phys schost 1 tar cf tmp SECURITY tar security Copie el archivo tmp Security tar en todos los nodos del cl ster Extraiga los archivos de seguridad de todos los nodos en los que haya copiado el archivo tmp SECURITY tar Se sobrescriben todos los archivos de seguridad que ya existan en el directorio etc opt SUNWcacao phys schost 2 cd etc cacao instances default phys schost 2 tar xf tmp SECURITY tar Elimine el archivo tmp SECURITY tar de todos los nodos del cl ster Es preciso eliminar todas las copias del archivo tar para evitar riesgos de seguridad phys schost 1 rm tmp SECURITY tar phys schost 2 rm tmp SECURITY tar Reinicie el daemon de administraci n Common Agent Container en todos los nodos phys schost 1 opt bin cacaoadm start Reinicie Oracle Solaris Cluster Manager usr sbin smcwebserver restart Inicio del software Oracle Solaris Cluster Manager 370 La GUI de Oracle Solaris Cluster Manager permite administrar de forma sencilla los diferentes aspectos del software Oracle Solaris Cluster Consulte la ayuda en l nea de
392. luster para obtener informaci n sobre c mo instalar un dispositivo de almacenamiento NAS de NetApp en un entorno de Oracle Solaris Cluster Oracle Solaris Cluster 3 3 With Network Attached Storage Device Manual phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Compruebe que todos los nodos de Oracle Solaris Cluster est n en l nea y se puedan comunicar con el archivador integrado en el cl ster de NetApp Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Inicie la utilidad clsetup clsetup Aparece el men principal de clsetup Escriba el n mero correspondiente a la opci n de qu rum Aparece el men Qu rum Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum 5 Escriba el n mero correspondiente a la opci n de agregar un dispositivo de qu rum A continuaci n escriba yes para confirmar que va a agregar un dispositivo de qu rum La utilidad cl setup pregunta qu tipo de dispositivo de qu rum se desea agregar 6 Escriba el n mero correspondiente a la opci
393. lutions Enabler debe estar instalado en todos los nodos del cl ster En primer lugar configure los grupos de dispositivos EMC SRDF en los discos compartidos del cl ster Si desea m s informaci n sobre c mo configurar los grupos de dispositivos EMC SRDE consulte la documentaci n de EMC SRDF Con EMC SRDE emplee dispositivos din micos no est ticos Los dispositivos est ticos necesitan varios minutos para cambiar el nodo primario de replicaci n y pueden afectar al tiempo de migraci n tras error Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 113 cl ster Administraci n de dispositivos replicados basados en almacenamiento 114 A Precauci n El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado Solaris Volume Manager Veritas Volume Manager o disco b sico debe ser id ntico al del grupo de dispositivos replicado Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos conectados a la matriz de almacenamiento En cada nodo configurado con los datos replicados descubra la configuraci n de dispositivo de Symmetrix Este proceso puede tardar unos minutos usr symcli bin symcfg discover Si a n no ha creado los pares de r plicas h galo ahora Para crear los pares de r plicas use el comando symrdf Si desea obtener instrucciones sobre c mo cre
394. lve nada Para obtener m s informaci n consulte la p gina de comando man cluster 1CL Monte el sistema de archivos de cl ster phys schost mount global device group mountpoint Para sistemas de archivos UFS monte el sistema de archivos de cl ster desde cualquier nodo del cluster Para VxFS monte el sistema de archivos de cl ster desde el elemento maestro del grupo_dispositivos para asegurarse de que el montaje del sistema de archivos se efect e correctamente Asimismo desmonte un sistema de archivos de VxFS desde el elemento maestro del grupo_dispositivos para asegurarse de que el sistema de archivos se desmonte correctamente Nota Para administrar un sistema de archivos de cl ster VxFS en un entorno de Oracle Solaris Cluster ejecute los comandos de administraci n s lo desde el nodo principal en que est montado el sistema de archivos de cl ster VxFS Compruebe que el sistema de archivos de cl ster est montado en todos los nodos de dicho cl ster Puede utilizar los comandos df o mount para enumerar los sistemas de archivos montados Para obtener m s informaci n consulte las p ginas de comando man df 1M o mount 1M Se puede obtener acceso a los sistemas de archivos del cl ster desde la zona global y desde la zona no global Creaci n de un sistema de archivos de cl ster UFS En el ejemplo siguiente se crea un sistema de archivos de cl ster UFS en el volumen de Solaris Volume Manager dev md o
395. m Quorum Votes Summary Needed Present Possible Quorum Votes by Node Node Name Present Possible phys schost 1 1 I phys schost 2 1 1 Quorum Votes by Device Device Name Present Possible qd1 1 1 d3s2 1 1 d4s2 1 1 Status Online Online Status Online Online Online Eliminacion o sustitucion de un dispositivo de quorum Esta secci n presenta los procedimientos siguientes para eliminar o reemplazar un dispositivo de qu rum Eliminaci n de un dispositivo de qu rum en la p gina 208 Eliminaci n del ltimo dispositivo de qu rum de un cl ster en la p gina 209 Sustituci n de un dispositivo de qu rum en la p gina 210 Cap tulo6 Administraci n de qu rum 207 Administraci n de dispositivos de qu rum 208 Y Eliminaci n de un dispositivo de qu rum Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Cuando se quita un dispositivo de qu rum ste ya no participa en la votaci n para establecer el quorum Todos los clusters de dos nodos necesitan como m nimo un dispositivo de qu rum configurado Si ste es el ltimo dispositivo de qu rum de un cl ster habr un error de clquorum 1CL al tratar de quitar el dispositivo de la configuraci n Si va a quitar un nodo elimine todos los dispositivos de qu rum que tenga conec
396. ma din mica Sin embargo si RG_SLM_PSET_TYPE est establecida en strong y no hay CPU suficientes disponibles para aceptar el cambio no se aplica el cambio solicitado para RG_SLM_PSET_MIN En este caso aparece un mensaje de advertencia En la siguiente conmutaci n puede haber errores por CPU insuficientes si no hay bastantes CPU disponibles para confirmar los valores configurados para RG_SLM PSET MIN Si un grupo de recursos en linea ya no est configurado para el control de la CPU en el nodo sin votaci n el valor de los recursos compartidos de CPU para el nodo sin votaci n asume el valor de zone cpu shares Este par metro tiene un valor predeterminado de 1 Cap tulo 10 Configuraci n del control del uso de la CPU 317 318 CAP TULO 11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster Este cap tulo proporciona los procedimientos para agregar y quitar parches en una configuraci n de Oracle Solaris Cluster de las secciones siguientes Informaci n general sobre aplicaci n de parches de Oracle Solaris Cluster en la p gina 319 Aplicaci n de parches del software Oracle Solaris Cluster en la p gina 321 Informaci n general sobre aplicaci n de parches de Oracle Solaris Cluster Debido a la naturaleza de un cl ster para que el cl ster funcione adecuadamente todos sus nodos deben estar en el mismo nivel de parche En ocasiones al aplicar parches en un nodo con un parch
397. maci n del cl ster del archivo de configuraci n sin solicitar antes la confirmaci n Recurra a esta opci n s lo si tiene la seguridad de que desea eliminar la informaci n de cl sters obsoleta del servidor de qu rum 3 Opcional Sino hay ning n otro dispositivo de qu rum configurado en esta instancia del servidor detenga el servidor de qu rum Ejemplo6 18 Limpieza de la informaci n obsoleta de clusters de la configuraci n del servidor de qu rum En este ejemplo se elimina informaci n correspondiente al cl ster denominado sc cluster del servidor de qu rum que emplea el puerto 9000 clquorumserver clear c sc cluster I 0x4308D2CF 9000 The quorum server to be unconfigured must have been removed from the cluster Unconfiguring a valid quorum server could compromise the cluster quorum Do you want to continue yes or no y Cap tulo6 Administraci n de qu rum 225 226 CAP TULO 7 Administraci n de interconexiones de cl sters y redes p blicas En este cap tulo se presentan los procedimientos de software para administrar interconexiones entre Oracle Solaris Cluster y redes p blicas Administrar las interconexiones entre los cl sters y las redes p blicas implica procedimientos de software y de hardware Durante la instalaci n y configuraci n inicial del cl ster se suelen configurar las interconexiones de los cl sters y las redes p blicas incluidos los grupos de varias rutas IP El m todo de
398. maci n del usuario que las comprobaciones no pueden determinar La comprobaci n solicita al usuario la informaci n necesaria por ejemplo el n mero de versi n del firmware Utilice la palabra clave k interactive para especificar una o m s comprobaciones interactivas Las comprobaciones funcionales ejercen una funci n o un comportamiento determinados del cl ster La comprobaci n solicita la entrada de datos del usuario como por ejemplo qu nodo debe utilizar para la conmutaci n por error o la confirmaci n para iniciar o continuar con la comprobaci n Utilice la palabra clave k functional id_comprobaci n para especificar una comprobaci n funcional Realice s lo una comprobaci n funcional cada vez Nota Dado que algunas comprobaciones funcionales implican la interrupci n del servicio del cl ster no inicie ninguna comprobaci n funcional hasta que haya le do la descripci n detallada de la comprobaci n y haya determinado si es necesario retirar antes el cl ster de la producci n Para mostrar esta informaci n utilice el comando siguiente cluster list checks v C checkID Puede ejecutar el comando cluster check en modo detallado con el indicador v para que se muestre la informaci n de progreso Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 45 Procedimiento para empezar a administrar el cl ster 46 Nota Ejecute cluster check despu s de realizar un procedimiento de admini
399. mando netcon 22 comando showrev p 28 29 comandos boot 67 69 cconsole 22 25 ccp 21 25 claccess 21 cldevice 21 cldevicegroup 21 clinterconnect 21 415 ndice comandos Continuaci n clnasdevice 21 clnode check 21 clquorum 21 clreslogicalhostname 21 clresource 21 clresourcegroup 21 clresourcetype 21 clressharedaddress 21 clsetup 21 clsnmphost 21 clsnmpmib 21 clsnmpuser 21 cltelemetryattribute 21 cluster check 21 24 45 50 cluster scshutdown 63 73 clzonecluster 21 63 73 clzonecluster boot 67 69 clzonecluster verify 45 crlogin 25 cssh 25 ctelnet 25 metaset 97 100 netcon 22 Common Agent Container regenerar claves de seguridad 369 Common Agent Container cambiar el n mero de puerto 368 comprobar configuraci n de replicaci n de datos 407 410 configuraci n de vfstab 180 estado de interconexi n de cl ster 229 puntos de montaje globales 50 184 SME 251 conexiones seguras con consolas del cl ster 27 configuraciones de ejemplo cl ster de campus replicaci n basada en almacenamiento de dos salas 92 96 configurar dispositivos replicados con Hitachi TrueCopy 102 104 funciones RBAC 55 n mero menor de un grupo de dispositivos 148 replicaci n de datos 375 412 configurar l mites de carga en nodos 294 295 conjunto de procesadores dedicado configurar 314 conmutaci n de afinidad configurar para replicaci n de datos 394 conmutaci n para replicaci n de da
400. mas de archivos de 187 cl ster Administraci n de la supervisi n de rutas de disco 188 Ejemplo 5 48 Ejemplo 5 49 Anulaci n de la supervisi n de una ruta de disco En el ejemplo siguiente se anula la supervisi n de la ruta de disco schost 2 dev did rdsk d1 y se imprimen las rutas de disco de todo el cl ster con sus estados cldevice unmonitor n schost2 dev did rdsk d1l cldevice status n schost2 dev did rdsk d1l Device Instance Node Status dev did rdsk d1l schost 2 Unmonitored Impresi n de rutas de disco err neas Siga este procedimiento para imprimir las rutas de disco err neas correspondientes a un cl ster Precauci n Los nodos que ejecuten versiones anteriores a Sun Cluster 3 1 10 03 no admiten la supervisi n de rutas de disco No utilice los comandos de supervisi n de rutas de disco en el transcurso de una actualizaci n Tras actualizarse todos los nodos deben estar en l nea para emplear los comandos de supervisi n de rutas de disco Convi rtase en superusuario en un nodo de cl ster Imprima las rutas de disco err neas de todo el cl ster cldevice status s fail Impresi n de rutas de disco err neas En el ejemplo siguiente se imprimen las rutas de disco err neas de todo el cl ster cldevice status s fail Device Instance Node Status dev did dsk d4 phys schost 1 fail Resoluci n de un error de estado de ruta de disco Si ocurre alguno de los siguientes eventos es
401. mbres de nodo y de grupo de dispositivos Compruebe que se haya agregado el nodo Busque la informaci n del grupo de dispositivos para el nuevo disco que se muestra con el comando siguiente cldevicegroup show devicegroup Adici n de un nodo a un grupo de dispositivos de Veritas Volume Manager En el ejemplo siguiente se muestra el comando cldevicegroup generado por clsetup cuando agrega un nodo phys schost 3 a un grupo de dispositivos de VxVM dg1 y el paso de comprobaci n clsetup cldevicegroup add node n phys schost 3 dgl cldevicegroup show dgl Device Groups Device Group Name dgl Type VxVM failback yes Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Node List phys schost 1 phys schost 3 preferenced no numsecondaries 1 diskgroup names dgl v Eliminaci n de un nodo de un grupo de dispositivos Veritas Volume Manager Siga este procedimiento para eliminar un nodo del cl ster de la lista de nodos primarios potenciales de un grupo de dispositivos o grupo de discos de Veritas Volume Manager o VxVM phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos
402. me Manager para ver el procedimiento utilizado con el fin de crear el volumen de VxVM Sincronice las modificaciones del grupo de discos de VxVM para actualizar el espacio de nombre global cldevicegroup sync Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager en la p gina 152 Conversi n de un grupo de discos en un grupo de dispositivos Veritas Volume Manager Un grupo de discos de VxVM ya creado puede convertirse en un grupo de dispositivos de Oracle Solaris Cluster si el grupo de discos se importa al nodo actual y a continuaci n se registra como grupo de dispositivos de Oracle Solaris Cluster Convi rtase en superusuario en un nodo de cl ster Importe el grupo de discos de VxVM al nodo actual vxdg import diskgroup Registre el grupo de discos de VxVM como grupo de dispositivos de Oracle Solaris Cluster Consulte Registro de un grupo de discos como grupo de dispositivos Veritas Volume Manager en la p gina 149 Asignaci n de un n mero menor nuevo a un grupo de dispositivos Veritas Volume Manager Si el registro de un grupo de dispositivos no se completa correctamente porque el n mero menor entra en conflicto con otro grupo de discos asigne al nuevo grupo de discos un n mero menor nuevo Tras asignar el n mero menor nuevo vuelva a ejecutar el procedimiento para registrar el grupo de discos como grupo de dispositivos de Oracle Solaris Cluster Convi rtas
403. mentaci n de VxVM Para el procedimiento de establecer un grupo de dispositivos en el estado de mantenimiento consulte Colocaci n de un nodo en estado de mantenimiento en la p gina 279 Cap tulo8 Adici n y eliminaci n de un nodo 259 Eliminaci n de nodos de un cl ster 260 10 11 12 Elimine el nodo de los grupos de dispositivos Siusa VxVM o un disco basico utilice el comando cldevicegroup 1CL para eliminar los grupos de dispositivos Para cada grupo de recursos que contenga un recurso HAStoragePlus elimine el nodo dela lista de nodos del grupo de recursos phys schost clresourcegroup remove node z zone n node resourcegroup nodo El nombre del nodo zona El nombre del nodo sin votaci n que puede controlar el grupo de recursos Indique la zona s lo si ha especificado un nodo sin votaci n al crear el grupo de recursos Consulte Oracle Solaris Cluster Data Services Planning and Administration Guide si desea m s informaci n sobre c mo cambiar la lista de nodos de un grupo de recursos Nota Los nombres de los tipos los grupos y las propiedades de recursos distinguen may sculas y min sculas cuando se ejecuta clresourcegroup Si la matriz de almacenamiento que va a eliminar es la ltima que est conectada al nodo desconecte el cable de fibra ptica que comunica el nodo y el concentrador o conmutador que est conectado a esta matriz de almacenamiento Si no es as omita este paso S
404. miento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster read y solaris cluster modify en uno de los nodos del cl ster distinto del nodo que se vaya a eliminar Identifique los grupos de dispositivos conectados al nodo que se vaya a eliminar y determine cu les son grupos de dispositivos de discos b sicos cldevicegroup show n nodename t rawdisk Inhabilite la propiedad Local only de cada grupo de dispositivos de discos b sicos Local_Disk cldevicegroup set p localonly false devicegroup Consulte la p gina de comando man cldevicegroup 1CL si desea obtener m s informaci n sobre la propiedad localonly Compruebe que haya inhabilitado la propiedad localonly en todos los grupos de dispositivos de discos b sicos conectados al nodo que vaya a eliminar El tipo de grupo de dispositivos Disk indica que la propiedad localonly est inhabilitada para ese grupo de dispositivos de discos b sicos cldevicegroup show n nodename t rawdisk v Elimine el nodo de todos los grupos de dispositivos de discos basicos identificados en el Paso 2 Complete este paso en cada grupo de dispositivos de discos basicos conectado con
405. mutadores de transporte Este procedimiento tambi n puede efectuarse mediante la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Complete el procedimiento descrito a continuaci n para quitar cables adaptadores y conmutadores de transporte de la configuraci n de un nodo Cuando se inhabilita un cable sus dos extremos contin an configurados Un adaptador no se puede quitar si sigue en uso como extremo de un cable de transporte Precauci n Cada nodo del cl ster debe contar al menos una ruta de transporte operativa que lo comunique con todos los dem s nodos del cl ster No debe haber ning n par de nodos que est n aislados entre s Antes de inhabilitar un cable compruebe siempre el estado de interconexi n de cl ster de un nodo S lo se debe inhabilitar una conexi n por cable tras haber comprobado que sea redundante Es decir aseg rese de que haya disponible otra conexi n Si se inhabilita el ltimo cable operativo de un nodo dicho nodo deja de ser miembro del cl ster phys schost t refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario en un nodo d
406. n y siga las instrucciones que aparecen en la pantalla Si desea que la etiqueta de servicio de Oracle Solaris Cluster refleje el nombre del cl ster nuevo elimine la etiqueta de Oracle Solaris Cluster y reinicie el cl ster Para eliminar la instancia de la etiqueta de servicio de Oracle Solaris Cluster realice los subpasos siguientes en todos los nodos del cl ster a Enumeretodas las etiquetas de servicio phys schost stclient x b Busque el n mero de instancia de la etiqueta de servicio de Oracle Solaris Cluster a continuaci n ejecute el comando siguiente phys schost stclient d i service_tag instance_number c Rearranquetodos los nodos del cl ster phys schost reboot Cambio del nombre del cl ster El ejemplo siguiente muestra el comando cluster 1CL generado desde la utilidad clsetup 1CL para cambiar al nombre nuevo del cl ster dromedary phys schost cluster rename c dromedary Capitulo9 Administraci n del cl ster 265 Informaci n general sobre la administraci n del cl ster v 10 266 C mo cambiar el nombre del cl ster si utiliza Veritas CVM Si tiene un grupo de discos de Veritas Cluster Volume Manager CVM que utiliza Oracle Solaris Cluster puede cambiar el nombre del cl ster despu s de la instalaci n inicial Convi rtase en superusuario en un nodo del cl ster global Si utiliza Oracle RAC 11 0 10 g lleve a cabo los pasos siguientes a Detenga y deshabilite Oracle Cluster
407. n mero m nimo de conjuntos de procesadores en un conjunto de procesadores dedicado Siga este procedimiento si desea controlar los recursos compartidos de CPU y el tama o de un conjunto de procesadores S lo puede tener este control en un nodo sin votaci n de cl ster global mediante un conjunto de procesadores dedicado Control del uso de la CPU en un nodo sin votaci n de cl ster global con un conjunto de procesadores dedicado en la p gina 314 Planificador por reparto equitativo El primer paso del procedimiento para asignar recursos compartidos de CPU a grupos de recursos es configurar un planificador del sistema para que sea el planificador por reparto equitativo FSS Fair Share Scheduler De forma predeterminada la clase de programaci n Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n del control de la CPU para el sistema operativo Oracle Solaris es la planificaci n de tiempo compartido TS Timesharing Schedule Configure el planificador para que sea de clase FSS y que se aplique la configuraci n de los recursos compartidos Puede crear un conjunto de procesadores dedicado sea cual sea el planificador que se elija Configuraci n del control de la CPU Esta secci n incluye los procedimientos siguientes Control del uso de la CPU en el nodo de votaci n de un cl ster global en la pagina 309 Control del uso de la CPU en un nod
408. n a la administraci n de Oracle Solaris Cluster 49 Procedimiento para empezar a administrar el cl ster var cluster logs cluster_check Dec5 cluster check Requesting explorer data and node report from phys schost 1 cluster check Requesting explorer data and node report from phys schost 2 cluster check phys schost 1 Explorer finished cluster check phys schost 1 Starting single node checks cluster check phys schost 1 Single node checks finished cluster check phys schost 2 Explorer finished cluster check phys schost 2 Starting single node checks cluster check phys schost 2 Single node checks finished cluster check Starting multi node checks cluster check Multi node checks finished cluster check One or more checks failed cluster check The greatest severity of all check failures was 3 HIGH cluster check Reports are in var cluster logs cluster_check lt Dec5 gt cat var cluster logs cluster_check Dec5 cluster_check results suncluster txt CHECK ID 3065 SEVERITY HIGH FAILURE Global filesystem etc vfstab entries are not consistent across all Oracle Solaris Cluster 3 x nodes ANALYSIS The global filesystem etc vfstab entries are not consistent across all nodes in this cluster Analysis indicates FileSystem global phys schost 1 is on phys schost 1 but missing from phys schost 2 RECOMMEND Ensure each node has the correct etc vfstab entry for the filesystem s in qu
409. n de las propiedades de RBAC de un usuario desde la l nea de comandos 62 Cierre y arranque de Un cl ster ooo esesessesceseseeeesesesneneseeseseenssssnsueneseesesesesueaesneaeeeeseneanens 63 Descripci n general sobre el cierre y el arranque de un cl ster oo ieee ees eeseeeeseeeseeesees 63 Y Cierre de un chiste mini dd di i a aK 65 Y Arranque devin cluster siii is diia 67 Y Rearranque de un cl ster iii a 69 Cierre y arranque de un solo nodo de UN Cl ster ceccescsesesseesesseesesseesesseeseeseeseeseesesseessacesesseeseess 73 y Cierre de unnodo nia T A 74 Y Arranque de cir ho ninia aia dios ciiidda 77 Y Rearranque deun MOO aises aieiaa iaa ieia iaaiiai 80 V Rearranque de un nodo en un modo que no sea de cl ster c oconiccinnonicninnnnnnncnnnnnecnrnenecennnos 84 Reparaci n de un sistema de archivos var que haya alcanzado el l mite de su capacidad 87 V Reparaci n de un sistema de archivos var que haya alcanzado el limite de capacidad 87 M todos de replicaci n de datos 0 00 0 cscs eescseesseseeeseeseeseeseeseseesucseneseesneseesneseeeeesnesseeseenses 89 Comprensi n de la replicaci n de datos siisii siiis iiis aieiai ainiai ussiisa adius 90 M todos admitidos de replicaci n de datos wo eseesesseseeseessseeessseesesssesseesesnssesseseeaeeseaes 91 Uso de replicaci n de datos basada en almacenamiento dentro de un cl ster 0 eee 92 Requisitos y restricciones al usar replicaci n de datos basada en almacen
410. n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Eliminaci n de nodos de un cl ster e Salga dela zona Si ha creado una zona de direcciones IP exclusivas configure los grupos IPMP en cada archivo etc hostname interfaz que se encuentre en esa zona Debe configurar un grupo de IPMP para cada adaptador de red p blica que se utilice para el tr fico de servicios de datos en la zona Esta informaci n no se hereda de la zona global Consulte la secci n Redes p blicas de Oracle Solaris Cluster Software Installation Guide para obtener m s informaci n sobre c mo configurar grupos IPMP en un cl ster Configure las asignaciones de nombre y direcci n para todos los nombres de host l gicos que utilice la zona a Agregue las asignaciones de nombre y direcci n al archivo etc inet hosts en la zona Esta informaci n no se hereda de la zona global b Siutiliza un servidor de nombres agregue la asignaci n de nombre y direcci n Eliminaci n de nodos de un cl ster A Esta secci n ofrece instrucciones sobre c mo eliminar un nodo de un cl ster global o de un cl ster de zona Tambi n es posible eliminar un cl ster de zona espec fico de un cl ster global La tabla siguiente muestra una lista con las tareas que se deben realizar para eliminar un nodo de un cl ster ya existente Efect e las tareas en el orden en que se muestran Precauci n Si se elimina un nodo aplicando s lo este procedimient
411. n el fin de crear un nico servicio l gico Si se produce un error en un nodo que ejecuta una aplicaci n escalable no habr migraci n tras error La aplicaci n contin a ejecut ndose en los otros nodos Cuando una aplicaci n escalable se administra como recurso en un grupo de recursos de aplicaciones no es necesario acoplar el grupo de recursos de aplicaciones con el grupo de dispositivos Por este motivo no es necesario crear un recurso de HAStoragePlus para el grupo de recursos de aplicaciones Un grupo de recursos de una aplicaci n escalable debe tener las caracter sticas siguientes Tener una dependencia en el grupo de recursos de direcciones compartidas Los nodos que ejecutan la aplicaci n escalable utilizan la direcci n compartida para distribuir datos entrantes Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Estar en linea en el cl ster primario y fuera de l nea en el secundario La Figura A 5 ilustra la configuraci n de grupos de recursos en una aplicaci n escalable FIGURA A 5 Configuraci n de grupos de recursos en una aplicaci n escalable Cl ster primario Cl ster secundario Grupo de recursos Grupo de recursos de aplicaciones de aplicaciones
412. n el miembro activo del cl ster agregue el nodo que desea desinstalar a la lista de autenticaci n de nodos del cl ster phys schost claccess allow h hostname h Especifica el nombre del nodo que se va a agregar a la lista de autenticaci n de nodos Tambi n puede usar la utilidad clsetup 1CL Consulte los procedimientos en Adici n de un nodo a la lista de nodos autorizados en la p gina 248 Convi rtase en superusuario en el nodo que vaya a desinstalar Si tiene un cl ster de zona desinst lelo phys schost clzonecluster uninstall F zoneclustername Para consultar los pasos espec ficos Eliminaci n de un cl ster de zona en la p gina 296 Si el nodo tiene una partici n dedicada para el espacio de nombres de dispositivos globales rearranque el nodo del cl ster global en un modo que no sea de cl ster Ejecute el comando siguiente en un sistema basado en SPARC Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster 7 shutdown g0 y i00k boot x Ejecute los comandos siguientes en un sistema basado en x86 shutdown g0 y i0 lt lt lt Current Boot Parameters gt gt gt Boot path pci 0 0 pci8086 2545 3 pci8086 1460 1d pci8086 341a 7 1 sd 0 0 a Boot args Type b file name boot flags lt ENTER gt to boot with options or i lt ENTER gt to enter boot interpreter or lt ENTE
413. n grupo de dispositivos que pueden controlar el grupo si falla el nodo primario El n mero predeterminado de nodos secundarios para servicios de dispositivos es de uno El valor puede establecerse como cualquier n mero entero entre uno y la cantidad de nodos proveedores no primarios operativos del grupo de dispositivos Este valor de configuraci n es importante para equilibrar el rendimiento y la disponibilidad del cl ster Por ejemplo incrementar el n mero de nodos secundarios aumenta las oportunidades de que un grupo de dispositivos sobreviva a m ltiples errores simult neos dentro de un cl ster Incrementar el n mero de nodos secundarios tambi n reduce el rendimiento habitualmente durante el funcionamiento normal Un n mero menor de nodos secundarios suele mejorar el rendimiento pero reduce la disponibilidad Ahora bien un n mero superior de nodos secundarios no siempre implica una mayor disponibilidad del sistema de archivos o del grupo Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos de dispositivos Consulte el Cap tulo 3 Key Concepts for System Administrators and Application Developers de Oracle Solaris Cluster Concepts Guide si desea obtener m s informaci n Si modifica la propiedad numsecondaries se agregan o eliminan nodos secundarios en el grupo de dispositivos si la modificaci n causa una falta de coincidencia entre el n mero
414. n grupo de dispositivos de VxVM dg1 y el paso de comprobaci n En este ejemplo se supone que el grupo de discos y el volumen de VxVM ya se hab an creado clsetup cldevicegroup create t vxvm n phys schost 1 phys schost 2 p failback true dgl cldevicegroup status dgl Cluster Device Groups Device Group Status Device Group Name Primary Secondary Status dgl phys schost 1 phys schost 2 Online Para crear un sistema de archivos de cl ster en el grupo de dispositivos de VxVM consulte Adici n de un sistema de archivos de cl ster en la p gina 178 Si hay problemas con el n mero menor consulte Asignaci n de un n mero menor nuevo a un grupo de dispositivos Veritas Volume Manager en la p gina 148 Registro de modificaciones en la configuraci n de grupos de discos Veritas Volume Manager Si modifica alg n elemento de la informaci n de configuraci n de un grupo de discos o volumen de VxVM es necesario registrar las modificaciones en la configuraci n del grupo de dispositivos de Oracle Solaris Cluster La operaci n de registro garantiza que el espacio de nombre se mantenga en estado correcto phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de coman
415. n iiadm e ind Y dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol02 Y dev vx rdsk devgrp vol03 nodeA usr sbin iiadm w dev vx rdsk devgrp vol02 Este paso habilita la copia del volumen maestro del cluster primario en el volumen sombra del mismo cluster El volumen maestro el volumen sombra y el volumen de mapa de bits de un momento determinado deben estar en el mismo grupo de dispositivos En este ejemplo el volumen maestro es vol01 el volumen sombra es vol02 y el volumen de mapa de bits de un momento determinado es vo103 Vincule la instant nea de un momento determinado con el grupo de duplicaci n remota Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm I a Y dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol02 dev vx rdsk devgrp vol03 Ap ndiceA Ejemplo 403 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Pasos siguientes v Antes de empezar Pasos siguientes 404 Este paso asocia la instant nea de un momento determinado con el conjunto duplicado remoto de vol menes El software Sun StorageTek Availability Suite comprueba que se tome una instant nea de un momento determinado antes de que pueda haber una replicaci n por duplicaci n remota Vaya a Habilitaci n de la replicaci n en el cl ster secundario en la p gina 404 Habilitaci n de la replicaci n en el cl ster secu
416. n l nea nodeA clresourcegroup online e M n nodeA devgrp stor rg e Habilita los recursos asociados M Administra el grupo de recursos n Especifica el nodo en el que poner el grupo de recursos en linea Compruebe que el grupo de recursos est en linea nodeA clresourcegroup status devgrp stor rg Examine el campo de estado del grupo de recursos para confirmar que el grupo de recursos de replicaciones est en linea para el nodo nodeA Vaya a Creaci n de un grupo de recursos de replicaciones en el cl ster secundario en la p gina 395 Creaci n de un grupo de recursos de replicaciones en el cl ster secundario Complete el procedimiento Creaci n de un grupo de recursos de replicaciones en el cl ster primario en la p gina 394 Obtenga acceso al nodo nodeC como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify solaris cluster admin y solaris cluster read Registre SUNW HAStoragePlus como tipo de recurso nodeC clresourcetype register SUNW HAStoragePlus Cree un grupo de recursos de replicaciones para el grupo de dispositivos nodeC clresourcegroup create n nodeC devgrp stor rg create Crea el grupo de recursos n Especifica la lista de nodos para el grupo de recursos Ap ndiceA Ejemplo 395 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 396 devgrp El nombre del grupo de disposit
417. n la p gina 380 Esta secci n incluye los procedimientos siguientes Configuraci n de un grupo de dispositivos en el cl ster primario en la p gina 389 Configuraci n de un grupo de dispositivos en el cl ster secundario en la p gina 390 Configuraci n de sistemas de archivos en el cl ster primario para la aplicaci n NFS en la p gina 391 Ap ndice A Ejemplo 387 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 388 Configuraci n del sistema de archivos en el cl ster secundario para la aplicaci n NFS en la p gina 392 Creaci n de un grupo de recursos de replicaciones en el cl ster primario en la p gina 394 Creaci n de un grupo de recursos de replicaciones en el cl ster secundario en la p gina 395 Creaci n de un grupo de recursos de aplicaciones NFS en el cl ster primario en la p gina 397 Creaci n de un grupo de recursos de aplicaciones NFS en el cl ster secundario en la p gina 399 Procedimiento para comprobar la configuraci n de la replicaci n en la p gina 407 La tabla siguiente enumera los nombres de los grupos y recursos creados para la configuraci n de ejemplo TABLA A 3 Resumen delos grupos y de los recursos en la configuraci n de ejemplo Grupo o recurso Nombre Descripci n Grupo de dispositivos devgrp El grupo de dispositivos El grupo de recursosde devgrp sto
418. n nodo al cl ster Para obtener m s informaci n consulte las p ginas de comando man keyserv 1M y publickey 4 Restablecimiento de la hora del d a en un cl ster El software Oracle Solaris Cluster usa el protocolo NTP para mantener la sincronizaci n temporal entre los nodos del cl ster Los ajustes del cl ster global se efect a autom ticamente seg n sea necesario cuando los nodos sincronizan su hora Para obtener m s informaci n consulte Oracle Solaris Cluster Concepts Guide y Network Time Protocol User s Guide Precauci n Si utiliza NTP no intente ajustar la hora del cl ster mientras se encuentre activo y en funcionamiento No ajuste la hora mediante los comandos date 1 rdate 1M xntpd 1M ni svcadm 1M de forma interactiva ni dentro de las secuencias de comandos cron 1M phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario en un nodo del cl ster global Cierre el cl ster global phys schost cluster shutdown g0 y i 0 Compruebe que el nodo muestre el indicador ok en los sistemas basados en SPARC o el mensaje Press any key to continue en el men de GRUB de los sistemas basados en x86 Arranque el nodo e
419. n un modo que no sea de cl ster En los sistemas basados en SPARC ejecute el comando siguiente ok boot x En los sistemas basados en x86 ejecute los comandos siguientes Cap tulo 9 Administraci n del cl ster 269 Informaci n general sobre la administraci n del cl ster shutdown g y i0 Press any key to continue a En el men de GRUB utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol 10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener mas informacion sobre el arranque basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration b En la pantalla de los par metros de arranque utilice las teclas de flecha para seleccionar la entrada de n cleo y escriba e para editarla La pantalla de los par metros de arranque de GRUB que aparece es similar a la siguiente GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted
420. na al cl ster Los nodos nuevos se pueden autenticar mediante la autenticaci n est ndar de UNIX o Diffie Hellman DES Si selecciona la autenticaci n DES tambi n debe configurar todas las pertinentes claves de cifrado antes de unir un nodo Para obtener m s informaci n consulte las p ginas de comando man keyserv 1M y publickey 4 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Cap tulo 9 Administraci n del cl ster 267 Informaci n general sobre la administraci n del cl ster 268 Ejemplo 9 3 Ejemplo 9 4 Ejemplo 9 5 Ejemplo 9 6 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario en un nodo del cl ster global Inicie la utilidad clsetup 1CL phys schost clsetup Aparece el men principal Para trabajar con la autenticaci n del cl ster escriba el n mero correspondiente a la opci n de nodos nuevos Aparece el men Nuevos nodos Seleccione desde el men y siga las instrucciones que aparecen en la pantalla Procedimiento para evitar que un equipo nuevo se agregue al cl ster global La utilidad cl setup genera el comando claccess El ejemplo siguiente muestra el comando claccess que evita que equipos nuevos se agreguen al cl ster
421. namiento dentro de un cl ster en la p gina 92 Para obtener m s informaci n sobre el uso de la replicaci n basada en almacenamiento entre dos cl steres o m s y el producto Oracle Solaris Cluster Geographic Edition que automatiza el proceso consulte Oracle Solaris Cluster Geographic Edition Data Replication Guide for Hitachi TrueCopy and Universal Replicator y Oracle Solaris Cluster Geographic Edition Data Replication Guide for EMC Symmetrix Remote Data Facility Consulte tambi n el A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite en la p gina 375 para obtener un ejemplo completo de este tipo de configuraci n del cl ster 90 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Comprensi n de la replicaci n de datos M todos admitidos de replicaci n de datos El software Oracle Solaris Cluster admite los m todos siguientes de replicaci n de datos entre cl sters o dentro de un mismo cl ster 1 Replicaci n entre clusters para la recuperaci n de datos en caso de problema grave puede usar una replicaci n basada en almacenamiento o en host con el objeto de realizar una replicaci n de datos entre cl sters Normalmente se opta por una replicaci n basada en host o en almacenamiento en lugar de una combinaci n de las dos Puede administrar ambos tipos de replicaci n con el software Oracle Solaris Cluster Geographic Editi
422. nd line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu c Agregue x al comando para especificar que el sistema arranque en un modo que no sea de cl ster Minimal BASH like line editing is supported For the first word TAB lists possible command completions Anywhere else TAB lists the possible completions of a device filename ESC at any time exits grub edit gt kernel platform i86pc multiboot sx d Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los par metros de arranque La pantalla muestra el comando editado GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a Capitulo11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 323 Aplicaci n de parches del software Oracle Solaris Cluster 324 10 11 12 kernel platform i86pc multiboot sx module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu e Escriba b para arrancar el nodo en un modo que no sea de cl ster Nota Este cambio en el comando del par metro de arranque del n cleo no se conserva tras
423. ndario Complete el procedimiento Habilitaci n de la replicaci n en el cl ster primario en la p gina 402 Acceda al nodo nodeC como superusuario Purgue todas las transacciones nodeC lockfs a f Habilite la duplicaci n por duplicaci n remota del cl ster primario al secundario Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeC usr sbin sndradm n e lhost reprg prim Y dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync El cl ster primario detecta la presencia del cl ster secundario y comienza la sincronizaci n Si desea informaci n sobre el estado de los cl steres consulte el archivo de registro del sistema var adm de Sun StorageTek Availability Suite Habilite la instant nea de un momento determinado independiente Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeC usr sbin iiadm e ind Y dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol02 Y dev vx rdsk devgrp vol03 nodeC usr sbin iiadm w dev vx rdsk devgrp vol02 Vincule la instant nea de un momento determinado con el grupo de duplicaci n remota Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeC usr sbin sndradm I a dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol02 Y dev vx rdsk devgrp vol03 Vaya a Ejemplo de c mo efectuar una repl
424. ndarios para un grupo de secundarios de un grupo de dispositivos dispositivos en la p gina 164 con clsetup para generar cldevicegroup Conmutar el primario de un grupo de Conmutaci n al nodo primario de un grupo de dispositivos dispositivos con el comando en la p gina 169 cldevicegroup switch Poner un grupo de dispositivos en estado Colocaci n de un grupo de dispositivos en estado de de mantenimiento con el comando mantenimiento en la p gina 170 metaset o vxdg v Actualizaci n del espacio de nombre de dispositivos globales Al agregar un nuevo dispositivo global actualice manualmente el espacio de nombre de dispositivos globales con el comando cldevice populate Nota El comando cldevice populate no tiene efecto alguno si el nodo que lo est ejecutando no es miembro del cl ster Tampoco tiene ning n efecto si el sistema de archivos global devices node ID_nodo no est montado Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Ejecute el comando devfsadm 1M en todos los nodos del cl ster Este comando puede ejecutarse simult neamente en todos los nodos del cl ster Reconfigure el espacio de nombre cldevice populate Antes de intentar crear conjuntos de discos compruebe que el comando cldevice populate haya finalizado su ejecuci n en cada uno de los nodos El comando cldevice se llama a s mism
425. ndo del par metro de arranque del n cleo no se conserva tras arrancar el sistema La pr xima vez que rearranque el nodo lo har en modo de cl ster Para arrancarlo en el modo que no es de cl ster realice estos pasos de nuevo para agregar la opci n x al comando del par metro de arranque del n cleo En un solo nodo configure la hora del d a para ello ejecute el comando date phys schost date HHMM SS En los otros equipos sincronice la hora de ese nodo para ello ejecute el comando rdate 1M phys schost rdate hostname Arranque cada nodo para reiniciar el cluster phys schost reboot Compruebe que el cambio se haya hecho en todos los nodos del cluster Ejecute el comando date en todos los nodos phys schost date SPARC Visualizacion de la PROM OpenBoot en un nodo Siga este procedimiento si debe configurar o cambiar la configuraci n de la PROM OpenBoot phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Conecte la consola al nodo para que se cierre telnet tc_name tc_port_number nombre_ct Especifica el nombre del concentrador de terminales Cap tulo 9 Administraci n del cl ster 271 Informaci n general sobre la administ
426. ndo siguiente si est aplicando parches en una zona de conmutaci n por error que tiene zpools para la ruta de la zona reboot xs Antes de continuar compruebe que los m todos de inicio de SMF hayan finalizado en el nodo pasivo SVCS X Nota Si est aplicando parches en una zona de conmutaci n por error que tiene zpools para la ruta de la zona omita este paso Compruebe que haya finalizado el proceso de reconfiguraci n del nodo activo cluster status Determine si hay reservas de SCSI 2 en el disco del conjunto de discos y libere las claves Siga estas instrucciones para determinar si hay reservas de SCSI 2 a continuaci n lib relas En todos los discos del conjunto ejecute el comando usr cluster lib sc scsi c disfailfast d dev did rdsk d s2 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster 12 13 14 15 16 17 18 Silas claves est n enumeradas lib relas ejecutando el comando usr cluster lib sc scsi c release d dev did rdsk d s2 Cuando termine de liberar las claves de reserva omita el Paso 12 y siga en el Paso 13 Determine si hay reservas de SCSI 3 en los discos de los grupos de discos a Ejecute el comando siguiente en todos los discos de los conjuntos de discos usr cluster lib sc scsi c inkeys d dev did rdsk didnames2 b Silas claves est n enumeradas qu te
427. necesario instalar y utilizar el paquete Diagnostic Toolkit SUNWscdtk proporcionado por el equipo de asistencia de Oracle Nota Si involuntariamente ha quitado las claves de reserva del dispositivo de qu rum activo elimine y vuelva a agregar el dispositivo de qu rum para poner claves de reserva nuevas en dicho dispositivo Evacue el nodo al que desea aplicar parches clresourcegroup evacuate n nodel Capitulo11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 331 Aplicaci n de parches del software Oracle Solaris Cluster 332 10 11 Ponga fuera de linea los grupos de recursos que contengan recursos de contenedor Solaris de alta disponibilidad clresourcegroup offline resourcegroupname Inhabilite todos los recursos de los grupos de recursos puestos fuera de l nea clresource disable resourcename Anule la administraci n de los grupos de recursos puestos fuera de l nea clresourcegroup unmanage resourcegroupname Ponga fuera de l nea el grupo o los grupos de dispositivos correspondientes cldevicegroup offline cldevicegroupname Nota Si est aplicando parches en una zona de conmutaci n por error que tiene zpools para la ruta de la zona omita este paso y el Paso 7 Inhabilite los grupos de dispositivos que haya puesto fuera de l nea cldevicegroup disable devicegroupname Arranque el nodo pasivo fuera del cl ster reboot x Nota Utilice el coma
428. ngan comprobaciones Aplique los parches que a n no est n instalados en el cl ster Ejecute las comprobaciones de validaci n b sicas cluster check v o outputdir v Modo detallado o dir_salida Redirige la salida al subdirectorio dir_salida El comando ejecuta todas las comprobaciones b sicas disponibles No se ve afectada ninguna funci n del cl ster Ejecute las comprobaciones de validaci n interactivas cluster check v k interactive o outputdir k interactive Especifica comprobaciones de validaci n interactivas en ejecuci n El comando ejecuta todas las comprobaciones de validaci n interactivas disponibles y le solicita informaci n necesaria sobre el cl ster No se ve afectada ninguna funci n del cl ster Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster 5 Ejemplo 1 8 Ejecute las comprobaciones de validaci n funcionales a Enumeretodas las comprobaciones funcionales disponibles en el modo detallado cluster list checks k functional b Determine qu comprobaciones funcionales realizan acciones que puedan afectar a la disponibilidad o los servicios del cl ster en un entorno de producci n Por ejemplo una comprobaci n funcional puede desencadenar que el nodo genere avisos graves o una conmutaci n por error a otro nodo cluster list checks v C checkID CID_comprobaci n Especifica un una
429. niciar detener desinstalar y clonar zonas no globales tareas de Gu a de administraci n de sistemas administraci n de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris Nota La configuraci n del qu rum puede afectar el inicio de un nodo En un cl ster de dos nodos debe tener el dispositivo de qu rum configurado de manera que el n mero total de qu rum correspondiente al cl ster ascienda a tres Es conveniente tener un n mero de qu rum para cada nodo y un n mero de qu rum para el dispositivo de qu rum De esta forma si cierra el primer nodo el segundo sigue disponiendo de qu rum y funciona como miembro nico del cl ster Para que el primer nodo retorne al cl ster como nodo integrante el segundo debe estar operativo y en ejecuci n Debe estar el correspondiente n mero de qu rum de cl ster dos phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Nota Los nodos deben disponer de una conexi n operativa con la interconexi n de cl ster para poder convertirse en miembros del cl ster 1 Para iniciar un nodo del cl ster global o un nodo de un cl ster de zona que se haya cerrado arranque el nodo Siga todos los pasos d
430. nimiento poner un dispositivo en 214 estado de mantenimiento sacar a un dispositivo 215 modificar listas de nodos 211 quitar 208 quitar el ltimo dispositivo de qu rum 209 reconfiguraci n din mica de dispositivos 195 reemplazar 210 211 reparar 218 y replicaci n basada en almacenamiento 95 dispositivos de qu rum de almacenamiento conectados a red agregar e instalar 201 dispositivos de qu rum de disco compartido con conexi n directa agregar 198 dispositivos de qu rum de servidor de qu rum agregar 204 requisitos para instalar 204 resoluci n de problemas para quitar dispositivos 209 dispositivos del qu rum agregar dispositivos del qu rum NAS de Sun 199 dispositivos del qu rum NAS de Sun ZFS Storage Appliance 199 cambio del tiempo de espera predeterminado 219 dispositivos del qu rum NAS de Sun agregar 199 dispositivos replicados basados en almacenamiento administrar 101 125 Domain Name System DNS actualizar en replicaci n de datos 411 412 directrices para actualizar 383 DR Ver reconfiguraci n din mica duplicaci n local Ver replicaci n basada en almacenamiento duplicaci n remota Ver replicaci n basada en almacenamiento realizar 405 406 duplicaciones copia de seguridad en l nea 342 E ejemplos crear un sistema de archivos de cl ster 181 ejecutar una comprobaci n de validaci n funcional 48 49 listado de comprobaciones de validaci n interactivas 48 ejemplos de configuraci
431. nimo de CPU disponibles en el conjunto de procesadores predeterminado La configuraci n de estos par metros protege los procesos que se est n ejecutando en el nodo de votaci n de competir por las CPU con los procesos que se est n ejecutando en nodos sin votaci n Si no asigna un valor a las propiedades global zoneshares y defaultpsetmin asumen sus valores predeterminados clnode set p globalzoneshares integer p defaultpsetmin integer node p defaultpsetmin minientero_p_establecido_predeterminado Establece el n mero m nimo de CPU disponibles en el conjunto de procesadores predeterminado El n mero predeterminado es 1 Cap tulo 10 Configuraci n del control del uso de la CPU 315 Configuraci n del control de la CPU 316 pglobalzoneshares entero Configura el n mero de recursos compartidos asignados al nodo de votaci n El n mero predeterminado es 1 nodo Identifica los nodos donde se deben configurar propiedades Al configurar estas propiedades tambi n se establecen las del nodo de votaci n Compruebe si ha configurado estas propiedades correctamente clnode show node Para el nodo que especifique el comando clnode imprime las propiedades establecidas y los valores definidos para dichas propiedades Si no configura las propiedades de control de la CPU con clnode asumen el valor predeterminado Configure la funci n de control de la CPU clresourcegroup create p RG_SLM_TYPE automated
432. nionconnoncnnonenacncacinnncnn carnoso 184 Y Supervision de una ruta de disco viniendo cas diiniita tacita 185 Y Anulaci n de la supervisi n de una ruta de disco wees ees eesesseseeseeseeseseeaeeaeeseaeaeeseaes 187 Y Impresi n de rutas de disco erT NEAS cssisvsscsessresssssssessossossssossoevesossssseevesosssescsossoevensaseasonnssos sstss 188 Y Resoluci n de un error de estado de ruta de disto wesc eeesessestesesseseesessesseeeesesaeeeeseeaeeseaes 188 Y Supervisi n de rutas de disco desde UN archivo conccinnionionionioncnnonenananacnnacnn cenar 189 W Habilitaci n del rearranque autom tico de un nodo si fallan todas las rutas de disco Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Contenido compartido supervisadas s ccscsocsssssasvassssesndsdesusieovessosedvassiseoadeseiescacsecssiessasuiteeseetecwsadssessagedsaiea 191 Inhabilitaci n del rearranque autom tico de un nodo si fallan todas las rutas de disco compartido supervisadas viii lid dit 192 Administraci n de qu rum 0 ccccccccceeseseseseeesseeseseseseseseeseseseseseseseaeseseeeseseseseseaeaeanseseseeeeeeataees 193 Administraci n de dispositivos de QUOTUM coccninnininninnnnnnnnecnn rre 193 Reconfiguraci n din mica con dispositivos de qu rum cocccccincnnnnnconconecnnnnn corno connanccncana canon 195 Adici n de un dispositivo de QUOTUM conccianinnonennnnnnncnn conocen 196 Eliminaci n o sustituci n de un dispositivo de qu
433. nistrador de SNMP intercepta los eventos del cl ster en tiempo real Si se habilita el administrador de SNMP env a autom ticamente notificaciones de captura a todos los sistemas definidos en el comando clsnmphost La MIB mantiene una tabla de s lo lectura con los 50 eventos m s actuales Debido a que los cl sters generan numerosas notificaciones s lo se env an como notificaciones de capturas los eventos con cierto grado de warning advertencia o superior Esta informaci n no se mantiene despu s de rearrancar Cap tulo 9 Administraci n del cl ster 287 Informaci n general sobre la administraci n del cl ster 288 La MIB de eventos de SNMP est definida en el archivo sun cluster event mib mib y se ubica en el directorio usr cluster lib mib Esta definici n puede usarse para interpretar la informaci n de captura de SNMP El n mero de puerto predeterminado del m dulo SNMP del evento es 11161 y el puerto predeterminado de las capturas de SNMP es 11162 Estos n meros de puerto se pueden cambiar modificando el archivo de propiedad de Common Agent Container etc cacao instances default private cacao properties Crear configurar y administrar una MIB de eventos de SNMP de Oracle Solaris Cluster puede implicar las tareas siguientes TABLA 9 2 Mapa de tareas crear configurar y administrar la MIB de eventos de SNMP de Oracle Solaris Cluster Tarea Instrucciones Habilitar una MIB de eventos de SNMP Habilitaci n de
434. nodo no rearranca autom ticamente Convi rtase en superusuario en uno de los nodos del cl ster o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Inhabilite el rearranque autom tico de un nodo para todos los nodos del cl ster si fallan todas las rutas de disco compartido supervisadas de dicho nodo clnode set p reboot_on_path_failure disabled Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 6 Administraci n de qu rum Este cap tulo presenta los procedimientos para administrar dispositivos de qu rum dentro de los servidores de qu rum de Oracle Solaris Cluster y Oracle Solaris Cluster Si desea obtener informaci n sobre conceptos de qu rum consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide Administraci n de dispositivos de qu rum en la p gina 193 Administraci n de servidores de qu rum de Oracle Solaris Cluster en la p gina 219 Administraci n de dispositivos de qu rum Un dispositivo de qu rum es un dispositivo de almacenamiento o servidor de qu rum compartido por dos o m s nodos y que aporta votos usados para establecer un qu rum Esta secci n explica los procedimientos para administrar dispositivos de qu rum Puede usar el comando clquorum 1CL para realizar todos los procedimientos administrativos de los dispositivos de qu rum Tambi n puede efectuar algunos proc
435. nombre de comunidad especificado no existe este comando crea la comunidad n nodo Especifica el nombre del nodo del host de SNMP al que se ha proporcionado acceso a las MIB de SNMP en el cl ster Puede especificar un nombre o un ID de nodo Si no especifica esta opci n de forma predeterminada se utiliza el nodo actual host Especifica el nombre la direcci n IP o la direcci n IPv6 del host al que se ha proporcionado acceso a las MIB de SNMP en el cl ster Inhabilitaci n de la recepci n de capturas de SNMP en un nodo por parte del host de SNMP Este procedimiento muestra c mo eliminar un host de SNMP de un nodo de la lista de hosts que recibir n las notificaciones de captura para las MIB phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Elimine el host de la lista de hosts de SNMP de una comunidad en el nodo especificado phys schost 1 clsnmphost remove c SNMPcommunity n node host remove Elimina el host de SNMP especificado del nodo indicado c comunidad_SNMP Especifica el nombre de la comunidad de SNMP de la que se ha elimin
436. nor de un grupo de discos acabado de crear podr a entrar en conflicto con el n mero menor de un grupo de discos que ya existiera que se hubiese importado de otro nodo En este caso si se intenta registrar el grupo de dispositivos de Oracle Solaris Cluster se producir un error Para solucionar este problema asigne un nuevo n mero menor exclusivo al grupo de discos nuevo a continuaci n reg strelo como grupo de dispositivos de Oracle Solaris Cluster Si est configurando un volumen duplicado puede utilizar DRL Dirty Region Logging para reducir el tiempo de recuperaci n del volumen tras error de nodo Se recomienda especialmente usar DRL si bien es posible que repercuta en el rendimiento de E S VxVM no admite el comando chmod Para modificar los permisos del dispositivo global en VxVM consulte la gu a del administrador de VxVM El software Oracle Solaris Cluster 3 3 no admite la administraci n DMP Dynamic Multipathing de VxVM de varias rutas desde un mismo nodo Si utiliza VxVM para configurar grupos de discos compartidos para Oracle RAC use la funci n de cl ster de VxVM como se describe en el documento Veritas Volume Manager Administrator s Reference Guide Crear grupos de discos compartidos para Oracle RAC es distinto de crear otros grupos de discos Debe importar los grupos de discos compartidos de Oracle RAC mediante vxdg s No registre los grupos de discos compartidos de Oracle RAC con la estructura del cl ster Para cre
437. nte el vo105 en el nodo nodeA nodeA mount global etc Haga que los sistemas remotos puedan tener acceso al vol 05 a Cree un directorio con el nombre global etc SUNW nfs en el nodo nodeA nodeA mkdir p global etc SUNW nfs b Creeelarchivo global etc SUNW nfs dfstab nfs rs en el nodo nodeA nodeA touch global etc SUNW nfs dfstab nfs rs c Agregue la l nea siguiente al archivo global etc SUNW nfs dfstab nfs rs en el nodo nodeA share F nfs o rw d HA NFS global mountpoint Vaya a Configuraci n del sistema de archivos en el cl ster secundario para la aplicaci n NFS en la pagina 392 Configuraci n del sistema de archivos en el cl ster secundario para la aplicaci n NFS Complete el procedimiento Configuraci n de sistemas de archivos en el cl ster primario para la aplicaci n NFS en la p gina 391 Convi rtase en superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster admin en el nodo nodec En el nodo nodeC cree un directorio de punto de montaje para el sistema de archivos de NFS Por ejemplo nodeC mkdir global mountpoint Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 10 En el nodo nodeC configure el volumen maestro para que se monte autom ticamente en el punto de montaje Agregue o sustituya el tex
438. nte fuera de l nea si bien se pierde el duplicado puede ponerse en l nea y volver a sincronizarse en cuanto la copia de seguridad est terminada sin detener el sistema ni denegar el acceso del usuario a los datos El uso de duplicaciones para realizar copias de seguridad en l nea crea una copia de seguridad que es una instant nea de un sistema de archivos activo Si un programa escribe datos en el volumen justo antes de ejecutarse el comando lockfs puede causar problemas Para evitarlo detenga temporalmente todos los servicios que se est n ejecutando en este nodo Asimismo antes de efectuar la copia de seguridad compruebe que el cl ster se ejecute sin errores phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n equivalente en el nodo del cl ster del que est haciendo la copia de seguridad Use el comando metaset 1M para determinar el nodo que es propietario del volumen de la copia de seguridad metaset s setname Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Copia de seguridad de un cl ster S Especifica el nombre del conjunto de discos nombr
439. ntiene varias palabras Arranque todos los nodos en un modo monousuario que no sea de cl ster En la consola de cada nodo ejecute los comandos siguientes En los sistemas basados en SPARC ejecute el comando siguiente Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster ok boot sx En los sistemas basados en x86 ejecute los comandos siguientes phys schost shutdown g y i0 Press any key to continue a Enel men de GRUB utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editarlos comandos El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener m s informaci n sobre el arranque basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration b En la pantalla de los par metros de arranque utilice las teclas de flecha para seleccionar la entrada de n cleo y escriba e para editarla La pantalla de los par metros de arranque de GRUB que aparece es similar a la siguiente GNU GRUB version 0 95 615K lo
440. ntinuar del men de GRUB en el caso de los sistemas basados en x86 Los men s de GRUB se describen m s pormenorizadamente en Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration El comando clzonecluster halt ejecuta la operaci n del comando zoneadm z nombre_cl ster_zona halt para detener pero no cerrar las zonas del cl ster de zona Nota Si es necesario tiene la posibilidad de arrancar un nodo en un modo que no sea de cl ster para que el nodo no participe como miembro en el cl ster Los modos que no son de cl ster son tiles al instalar software de cl ster o para efectuar determinados procedimientos administrativos Si desea obtener m s informaci n consulte Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 TABLA 3 1 Lista de tareas cerrar e iniciar un cl ster Tarea Instrucciones Detener el cl ster Cierre de un cl ster en la p gina 65 Iniciar el cl ster arrancando todos los nodos Los nodos deben Arranque de un cl ster en la p gina 67 contar con una conexi n operativa con la interconexi n de cl ster para conseguir convertirse en miembros del cl ster Rearrancar el cl ster Rearranque de un cl ster en la p gina 69 64 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Descripci n general sobre el cierre y el arranque de un cl ster Cierre de un cl ster
441. o de forma remota en todos los nodos incluso cuando el comando se ejecuta desde un solo nodo Para determinar si ha concluido el procesamiento del comando cldevice populate ejecute el comando siguiente en todos los nodos del cl ster ps ef grep cldevice populate Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 21 Actualizaci n del espacio de nombre de dispositivos globales El ejemplo siguiente muestra la salida generada al ejecutarse correctamente el comando cldevice populate devfsadm cldevice populate Configuring the dev global directory global devices obtaining access to all attached disks reservation program successfully exiting ps ef grep cldevice populate C mo cambiar el tama o de un dispositivo lofi que se utiliza para el espacio de nombres de dispositivos globales Si utiliza un dispositivo lofi para el espacio de nombres de dispositivos globales en uno o m s nodos del cl ster global lleve a cabo este procedimiento para cambiar el tama o del dispositivo Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en un nodo donde quiera cambiar el tama o del dispositivo lofi para el espacio de nombres de dispositivos globales Evacuar los servicios fuera del nodo y reiniciar el nodo en un modo que no sea de cl ster Lleve a cabo esta tarea p
442. o para una configuraci n de RAC el nodo podr a experimentar un error grave al rearrancar Para obtener instrucciones sobre c mo eliminar un nodo de una configuraci n de RAC consulte C mo eliminar Admisi n de Oracle RAC de los nodos seleccionados de Gu a del servicio de datos de Oracle Solaris Cluster para Oracle Real Application Clusters RAC Despu s de finalizar el proceso siga los pasos detallados a continuaci n que resulten pertinentes TABLA 8 2 Mapa de tareas eliminar un nodo Tarea Instrucciones Mover todos los grupos de recursos y clnode evacuate nodo grupos de dispositivos fuera del nodo que se va a eliminar Cap tulo8 Adici n y eliminaci n de un nodo 253 Eliminaci n de nodos de un cl ster 254 TABLA 8 2 Mapa de tareas eliminar un nodo Continuaci n Tarea Instrucciones Comprobar que sea posible eliminar el nodo mediante la verificaci n de los hosts permitidos Si no es posible eliminar el nodo conceder acceso a la configuraci n del cl ster Eliminar el nodo de todos los grupos de dispositivos Quitar todos los dispositivos de qu rum conectados al nodo que se va a eliminar Poner el nodo que se vaya a eliminar en un modo que no sea de cl ster Eliminar un nodo de un cl ster de zona Eliminar un nodo de la configuraci n de software del cl ster Opcional Desinstalar el software Oracle Solaris Cluster de un nodo del cl ster Eliminar todo un cl ster d
443. o primario Si el grupo de dispositivos est registrado correctamente la informaci n del nuevo grupo de dispositivos se muestra al usar el comando siguiente cldevice status devicegroup Conmutaci n del nodo primario de un grupo de dispositivos En el ejemplo siguiente se muestra c mo conmutar el nodo primario de un grupo de dispositivos y c mo comprobar el cambio Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 169 cl ster Administraci n de grupos de dispositivos 170 cldevicegroup switch n phys schost 1 dg schost 1 cldevicegroup status dg schost 1 Cluster Device Groups Device Group Status Device Group Name Primary Secondary Status dg schost 1 phys schost 1 phys schost 2 Online Colocaci n de un grupo de dispositivos en estado de mantenimiento Poner un grupo de dispositivos en estado de mantenimiento impide que dicho grupo se ponga autom ticamente en l nea cada vez que se obtenga acceso a uno de sus dispositivos Conviene poner un grupo de dispositivos en estado de mantenimiento al finalizar procedimientos de reparaci n que requieran consentimiento para todas las actividades E S hasta que terminen las operaciones de reparaci n Asimismo poner un grupo de dispositivos en estado de mantenimiento ayuda a impedir la p rdida de datos al asegurar que el grupo de dispositivos no se pone en l nea en un nodo mientras el conjunto o
444. o proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en el nodo del cl ster global que va a poner en estado de mantenimiento Evacue del nodo todos los grupos de recursos y de dispositivos El comando clnode evacuate conmuta todos los grupos de recursos y de dispositivos incluidos todos los nodos de no votaci n del nodo especificado al siguiente nodo por orden de preferencia phys schost clnode evacuate node Cierre el nodo que ha evacuado phys schost shutdown g0 y i 0 Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en otro nodo del cl ster y ponga el nodo cerrado en el Paso 3 en estado de mantenimiento phys schost clquorum disable node node Especifica el nombre de un nodo que desea poner en estado de mantenimiento Compruebe que el nodo del cluster global est en estado de mantenimiento phys schost clquorum status node El nodo puesto en estado de mantenimiento debe tener un Status de offline y 0 para los votos de qu rum Present y Possible Colocaci n de un nodo del cl ster global en estado de mantenimiento En el ejemplo siguiente se pone un nodo del cl ster en estado de man
445. o que se va a eliminar forma parte como miembro cldevicegroup list v Si alguno de los grupos de dispositivos que figuran en la lista del Paso 5 pertenece a los tipos de grupos Disco o Local_Disk siga los pasos descritos en Eliminaci n de un nodo de un grupo de dispositivos de discos b sicos en la p gina 161 para todos estos grupos de dispositivos Compruebe que el nodo se haya eliminado de la lista de posibles nodos primarios en todos los grupos de dispositivos El comando no devuelve ning n resultado si el nodo ya no figura en la lista como nodo primario potencial en ninguno de los grupos de dispositivos cldevicegroup list v nodename Eliminaci n de un nodo de un grupo de dispositivos Solaris Volume Manager Siga este procedimiento para eliminar un nodo de cl ster de la lista de nodos primarios potenciales de un grupo de dispositivos de Solaris Volume Manager Repita el comando metaset en cada uno de los grupos de dispositivos donde desee eliminar el nodo Precauci n No ejecute metaset s nombre_conjunto f t en un nodo del cl ster que se arranque fuera del cl ster si hay otros nodos activos como miembros del cl ster y al menos uno de ellos es propietario del conjunto de discos phys schost t refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi
446. o sin votaci n de cl ster global con el conjunto de procesadores predeterminado en la p gina 311 Control del uso de la CPU en un nodo sin votaci n de cl ster global con un conjunto de procesadores dedicado en la p gina 314 v Control del uso de la CPU en el nodo de votaci n de un cl ster global Realice este procedimiento para asignar los recursos compartidos de CPU a un grupo de recursos que se ejecutar en un nodo de votaci n de cl ster global Si un grupo de recursos se asigna a los recursos compartidos de CPU el software Oracle Solaris Cluster realiza las tareas siguientes al iniciar un recurso del grupo en un nodo de votaci n de cl ster global Aumenta el n mero de recursos compartidos de CPU asignados al nodo de votaci n zone recursos_compartidos_cpu con el n mero especificado de recursos compartidos de CPU si todav a no se ha hecho Crea un proyecto denominado SCSLM_nombre_grupo_recursos en el nodo de votaci n si todav a no se ha hecho Este proyecto es espec fico del grupo de recursos y se le asigna el n mero espec fico de recursos compartidos de CPU project recursos_compartidos_cpu a Inicia el recurso en el proyecto SCSLM_ nombre_grupo_recursos Para obtener m s informaci n sobre c mo configurar la funci n de control de la CPU consulte la p gina de comando man rg_properties 5 1 Configure FSS como tipo de programador predeterminado para el sistema dispadmin d FSS FSS se c
447. o usa la cuenta del sistema root Las cuentas de usuario de Oracle Solaris Cluster Manager s lo las utiliza Oracle Solaris Cluster Manager Estas cuentas no se corresponden con ninguna cuenta de usuario del sistema del sistema operativo Oracle Solaris En Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster en la p gina 57 se describe con m s detalle c mo crear y asignar una funci n de RBAC a una cuenta de usuario Nota Los usuarios que no tengan establecida una cuenta de usuario en un nodo determinado no pueden acceder al cl ster mediante Oracle Solaris Cluster Manager desde ese nodo tampoco pueden administrar el nodo a trav s de otro nodo del cl ster al que los usuarios tengan acceso 4 Opcional Repita el Paso 3 para configurar m s cuentas de usuario 5 Inicie un navegador desde la consola de administraci n u otro equipo fuera del cl ster 6 Compruebe que los tama os del disco del navegador y de la memoria cach est n configurados con un valor superior a 0 7 Compruebe que Java y Javascript est n habilitados en el navegador 8 Con ctese al puerto de Oracle Solaris Cluster Manager en un nodo del cl ster desde el navegador El n mero de puerto predeterminado es 6789 https node 6789 Cap tulo 13 Administraci n de Oracle Solaris Cluster con las interfaces gr ficas de usuario 371 Inicio del software Oracle Solaris Cluster Manager 372
448. obales global devices node ID_nodo Quite el dispositivo de lofi asociado con el archivo globaldevices lofiadm d globaldevices Elimine el archivo globaldevices rm globaldevices Inhabilite y vuelva a habilitar los servicios de SMF globaldevices y scmountdev svcadm disable globaldevices svcadm disable scmountdev svcadm enable scmountdev svcadm enable globaldevices Ahora la partici n est montada como sistema de archivos del espacio de nombre de dispositivos globales Repita estos pasos en otros nodos cuyo espacio de nombre de dispositivos globales desee migrar desde un dispositivo de lofi hasta una partici n Arranque en modo cl ster Desde un nodo del cl ster ejecute el comando cldevice populate para llenar el espacio de nombre de dispositivos globales usr cluster bin cldevice populate Antes de pasar a realizar ninguna otra acci n en cualquiera de los nodos compruebe que el proceso concluya en todos los nodos del cl ster ps ef grep cldevice populate El espacio de nombre de dispositivos globales ahora reside en la partici n dedicada Migre al nodo todos los servicios que desee ejecutar en l Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 135 cl ster Administraci n de grupos de dispositivos 136 Adici n y registro de grupos de dispositivos Puede agregar y registrar grupos de dispositivos para Solaris V
449. ode 1 dev rdsk c6t500060E8000000000000EEBA0000001Fd0 dev did rdsk d12 12 node 2 dev rdsk c5t500060E8000000000000EEBA0000001Fd0 dev did rdsk d12 13 node 1 dev rdsk c6t500060E8000000000000EEBA0000001Ed0 dev did rdsk d13 13 node 2 dev rdsk c5t500060E8000000000000EEBA0000001Ed0 dev did rdsk d13 14 node 1 dev rdsk c6t500060E8000000000000EEBA0000001Dd0 dev did rdsk d14 14 node 2 dev rdsk c5t500060E8000000000000EEBA0000001Dd0 dev did rdsk d14 18 node 3 dev rdsk cotodo dev did rdsk d18 19 node 3 dev rdsk c0t6d0 dev did rdsk d19 20 node 3 dev rdsk c5t50060E800000000000004E6000000013d0 dev did rdsk d20 21 node 3 dev rdsk c5t50060E800000000000004E600000003Dd0 dev did rdsk d21 22 node 3 dev rdsk c5t50060E800000000000004E600000003Cd0 dev did rdsk d2223 23 node 3 dev rdsk c5t50060E800000000000004E600000003Bd0 dev did rdsk d23 24 node 3 dev rdsk c5t50060E800000000000004E600000003Ad0 dev did rdsk d24 Al combinar las instancias de DID de cada par de dispositivos replicados cldevice list debe combinar la instancia de DID 12 con la 22 la instancia 13 con la 23 y la instancia 14 con la 24 Como el nodo 3 tiene la r plica primaria ejecute el comando cldevice T desde el nodo 1 o el nodo 2 Combine siempre las instancias desde un nodo que tenga la r plica secundaria Ejecute este comando s lo desde un nodo no en ambos nodos 110 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de
450. ode List phys schost 1 phys schost 2 preferenced yes numsecondaries 1 diskgroup names dg schost 1 Definici n del numero de nodos secundarios con el valor predeterminado En el ejemplo siguiente se muestra el uso de un valor nulo de secuencia de comandos para configurar el n mero predeterminado de nodos secundarios El grupo de dispositivos se configura para usar el valor predeterminado aunque dicho valor sufra modificaciones cldevicegroup set p numsecondaries dg schost 1 cldevicegroup show v dg schost 1 Device Groups Device Group Name dg schost 1 Type SVM failback yes Node List phys schost 1 phys schost 2 phys schost 3 preferenced yes numsecondaries 1 diskset names dg schost 1 Enumeraci n de la configuraci n de grupos de dispositivos No es necesario ser un superusuario para enumerar un listado con la configuraci n Sin embargo se debe disponer de autorizaci n solaris cluster read phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 167 cl ster Administraci n de grupos de dispositivos 168 Ejemplo 5 35 Ejemplo 5 36 Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos l
451. odeA que contenga desde el volumen 1 vo101 hasta el volumen 4 vol04 Si desea informaci n sobre c mo configurar un grupo de discos mediante VxVM consulte el Cap tulo 5 Instalaci n y configuraci n de Veritas Volume Manager de Oracle Solaris Cluster Software Installation Guide Configure el grupo de discos para crear un grupo de dispositivos nodeA cldevicegroup create t vxvm n nodeA nodeB devgrp El grupo de dispositivos se denomina devgrp Cree el sistema de archivos para el grupo de dispositivos nodeA newfs dev vx rdsk devgrp vol01 lt dev null nodeA newfs dev vx rdsk devgrp vol02 lt dev null No se necesita ning n sistema de archivos para el vol03 o el vol04 ya que se utilizan como vol menes b sicos Vaya a Configuraci n de un grupo de dispositivos en el cl ster secundario en la p gina 390 Configuraci n de un grupo de dispositivos en el cl ster secundario Complete el procedimiento Configuraci n de un grupo de dispositivos en el cl ster primario en la p gina 389 Obtenga acceso al nodo nodeC como superusuario o asuma una funci n que cuente con la autorizaci n de RBAC solaris cluster modify Cree un grupo de discos en el nodeC que contenga cuatro vol menes desde el volumen 1 vol01 hasta el volumen 4 vol04 Configure el grupo de discos para crear un grupo de dispositivos nodeC cldevicegroup create t vxvm n nodeC devgrp El grupo de dispositivos se denomina devgrp
452. odo del estado de mantenimiento en la p gina 281 Desinstalaci n del software Oracle Solaris Cluster desde un nodo del cl ster en la p gina 283 Habilitaci n de una MIB de eventos de SNMP en la p gina 288 Adici n de un usuario de SNMP a un nodo en la p gina 292 C mo configurar l mites de carga en un nodo en la p gina 294 Ejecuci n de tareas administrativas del cl ster de zona en la p gina 295 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster v Cambio del nombre del cluster Ejemplo 9 1 Si es necesario el nombre del cl ster puede cambiarse tras la instalaci n inicial phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario en un nodo del cl ster global Inicie la utilidad clsetup phys schost clsetup Aparece el men principal Para cambiar el nombre del cl ster escriba el n mero correspondiente a la opci n Other Cluster Properties Otras propiedades del cl ster Aparece el men Other Cluster Properties Otras propiedades del cl ster Seleccione desde el me
453. odos Dispositivos NAS Nodos Dispositivos de qu rum 365 SPARC Informaci n general sobre Sun Management Center Grupos de recursos Recursos En las ubicaciones siguientes encontrar informaci n sobre la instalaci n y el uso de Oracle Solaris Cluster Manager Instalaci n de Oracle Solaris Cluster Manager consulte Oracle Solaris Cluster Software Installation Guide Inicio de Oracle Solaris Cluster Manager consulte Inicio del software Oracle Solaris Cluster Manager en la p gina 370 Configuraci n de n meros de puerto direcciones de servidor certificados de seguridad y usuarios consulte Configuraci n de Oracle Solaris Cluster Manager en la p gina 367 Instalaci n y administraci n de aspectos del cl ster mediante Oracle Solaris Cluster Manager consulte la ayuda en l nea que se proporciona con Oracle Solaris Cluster Manager Regeneraci n de las claves de seguridad de Oracle Solaris Cluster Manager consulte Regeneraci n de las claves de seguridad de Common Agent Container en la p gina 369 Nota Sin embargo Oracle Solaris Cluster Manager no puede realizar de momento todas las tareas administrativas de Oracle Solaris Cluster En algunas operaciones debe utilizarse la interfaz de l nea de comandos SPARC Informaci n general sobre Sun Management Center 366 El m dulo de Oracle Solaris Cluster para la consola GUI de Sun Management Center anteriormente Sun Enterprise SyMO
454. olume Manager Siga este procedimiento nicamente si pierde por completo la configuraci n de software de Solaris Volume Manager En estos pasos se presupone que ha guardado la configuraci n actual de Solaris Volume Manager y todos sus componentes adem s de haber purgado el conjunto de discos da ado Nota Los mediadores s lo deben utilizarse en cl steres de dos nodos Cree un conjunto de discos usr sbin metaset s setname a h nodenamel nodename2 Si se trata de un conjunto de discos de varios propietarios utilice el comando siguiente para crear un conjunto de discos usr sbin metaset s setname aM h nodenamel nodename2 En el mismo host donde se haya creado el conjunto agregue los hosts mediadores si es preciso s lo dos nodos usr sbin metaset s setname a m nodenamel nodename2 Vuelva a agregar los mismos discos al conjunto de discos de este mismo host usr sbin metaset s setname a dev did rdsk diskname dev did rdsk diskname Siha purgado el conjunto de discos y esta volviendo a crearlo el indice de contenido del volumen VTOC debe permanecer en los discos para que pueda omitir este paso Sin embargo Capitulo9 Administraci n del cl ster 305 Soluci n de problemas 306 si esta volviendo a crear un conjunto que se va a recuperar debe dar formato a los discos seg n una configuraci n guardada en el archivo etc 1lvm nombre_disco vtoc Por ejemplo usr sbin fmthard s etc lvm d4 vtoc
455. olume Manager ZFS Veritas Volume Manager o disco b sico Adici n y registro de un grupo de dispositivos Solaris Volume Manager Use el comando metaset para crear un conjunto de discos de Solaris Volume Manager y registrarlo como grupo de dispositivos de Oracle Solaris Cluster Al registrar el conjunto de discos el nombre que le haya asignado se asigna autom ticamente al grupo de dispositivos phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Precauci n El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado Solaris Volume Manager Veritas Volume Manager o disco b sico debe ser id ntico al del grupo de dispositivos replicado Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en uno de los nodos conectado a los discos en los que est creando el conjunto de discos Agregue el conjunto de discos de Solaris Volume Manager y reg strelo como un grupo de dispositivos con Oracle Solaris Cluster Para crear un grupo de discos de m ltiples propietarios use la opci n M metaset s diskset a M h nodelist s conjunto_discos Especifica el conjunto de discos que se
456. ommandlog El archivo semanal completo m s reciente se denomina commandlog 0 El archivo semanal completo m s antiguo se denomina commandlog 7 El contenido del archivo commandl og correspondiente a la semana actual se muestra una sola pantalla a la vez phys schost more var cluster logs commandlog Visualizaci n del contenido de los registros de comandos de Oracle Solaris Cluster El ejemplo siguiente muestra el contenido del archivo commandlog que se visualiza mediante el comando more more lines10 var cluster logs commandlog 11 11 2006 09 42 51 phys schost 1 5222 root START clsetup 11 11 2006 09 43 36 phys schost 1 5758 root START clrg add app sa 1 11 11 2006 09 43 36 phys schost 1 5758 root END 0 11 11 2006 09 43 36 phys schost 1 5760 root START clrg set y RG_description Department Shared Address RG app sa 1 11 11 2006 09 43 37 phys schost 1 5760 root END 0 11 11 2006 09 44 15 phys schost 1 5810 root START clrg online app sa 1 11 11 2006 09 44 15 phys schost 1 5810 root END 0 11 11 2006 09 44 19 phys schost 1 5222 root END 20988320 Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 53 Procedimiento para empezar a administrar el cl ster 12 02 2006 14 37 21 phys schost 1 5542 jbloggs START clrg c g app sa 1 y RG_description Jo0e Bloggs Shared Address RG 12 02 2006 14 37 22 phys schost 1 5542 jbloggs END 0 54 Guia de administraci n del sistema de Oracle Solaris Cl
457. ommands before booting or c for a command line En el nodo actualice el espacio de nombre del dispositivo mediante la actualizaci n de las entradas devices y dev phys schost devfsadm C cldevice refresh Vuelva a poner en l nea los grupos de dispositivos Para obtener informaci n sobre los procedimientos relativos a poner en l nea un grupo de discos compartidos Veritas consulte la documentaci n del administrador de vol menes Veritas Volume Manager Si desea obtener informaci n sobre c mo poner en l nea un grupo de dispositivos consulte Procedimiento para sacar un nodo del estado de mantenimiento en la p gina 281 Correcci n de mensajes de error Para corregir cualquier mensaje de error que aparezca al intentar llevar a cabo alguno de los procedimientos de eliminaci n de nodos del cl ster siga el procedimiento detallado a continuaci n Intente volver a unir el nodo al cl ster global Realice este procedimiento s lo en un cl ster global phys schost boot Se ha vuelto a unir correctamente el nodo al cl ster Sino es asi contin e en el Paso b Cap tulo8 Adici n y eliminaci n de un nodo 261 Eliminaci n de nodos de un cl ster Siha sido posible efect e los pasos siguientes con el fin de eliminar el nodo de los grupos de dispositivos a Sielnodo vuelve a unirse correctamente al cl ster elimine el nodo del grupo o los grupos de dispositivos restantes Siga los procedimi
458. omprobar servicios en l nea 251 SNMP agregar usuarios 292 cambiar protocolo 289 eliminar usuarios 293 habilitar e inhabilitar una MIB de eventos 288 289 habilitar hosts 290 inhabilitar hosts 291 software Oracle Solaris SMF 251 Solaris Volume Manager nombres de dispositivo de disco b sico 179 SRDF Ver EMCSRDE SRDF de EMC Adaptive Copy 93 modo Domino 93 ssh 27 Sun Management Center descripci n 20 informaci n general 366 instalaci n 22 Sun StorageTek Availability Suite usar para replicaci n de datos 375 Sun ZFS Storage Appliance admitido como dispositivo del qu rum 196 agregar como dispositivo del qu rum 199 SunMC Ver Sun Management Center supervisar rutas de disco 185 187 rutas de disco compartido 191 192 switchback directrices para realizar replicaci n de datos 384 T tiempo de espera cambio del valor predeterminado de un dispositivo del qu rum 219 tipos de dispositivo del qu rum lista de tipos admitidos 196 423 ndice tipos de dispositivo del qu rum admitido 196 tolerancia ante problemas graves definici n 376 transporte adaptadores 233 transporte cables 233 transporte conmutadores 233 TrueCopy Ver Hitachi TrueCopy Ver TrueCopy de Hitachi TrueCopy de Hitachi modos Data o Status 93 U ltimo dispositivo de qu rum quitar 209 usar funciones RBAC 55 usr cluster bin cl resource eliminar grupos de recursos 297 usuarios agregar SNMP 292 eliminar SNMP
459. ompruebe que la aplicaci n se haya iniciado correctamente para ello ejecute el comando siguiente para realizar la comprobaci n de un cliente clrs status apache rs Colocaci n de un nodo en estado de mantenimiento Ponga un nodo de cl ster global en estado de mantenimiento si el nodo va a estar fuera de servicio durante mucho tiempo De esta forma el nodo no contribuye al n mero de qu rum mientras sea objeto de tareas de mantenimiento o reparaci n Para poner un nodo en estado de mantenimiento ste tiene se debe cerrar con los comandos de evacuaci n clnode 1CL y de cierre cluster 1CL Nota Use el comando shutdown de Oracle Solaris para cerrar un solo nodo Use el comando cluster shutdown s lo cuando vaya a cerrar todo un cl ster Cuando un cl ster se cierra y se pone en estado de mantenimiento el n mero de votos de qu rum de todos los dispositivos de qu rum configurados con puertos al nodo se reduce en Cap tulo 9 Administraci n del cl ster 279 Informaci n general sobre la administraci n del cl ster 280 Ejemplo 9 9 uno Los n meros de votos del nodo y del dispositivo de qu rum se incrementan en uno cuando el nodo sale del modo de mantenimiento y vuelve a estar en l nea Use el comando de inhabilitaci n clquorum 1CL para poner un nodo del cl ster en estado de mantenimiento phys schost refleja un indicador de cluster global Siga este procedimiento en un cl ster global Este procedimient
460. on Replicaci n basada en host Sun StorageTek Availability Suite a partir del sistema operativo Oracle Solaris 10 Si desea utilizar la replicaci n basada en host con el software de Oracle Solaris Cluster Geographic Edition consulte las instrucciones del Ap ndice A Ejemplo Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite en la p gina 375 Replicaci n basada en almacenamiento Hitachi TrueCopy e Hitachi Universal Replicator mediante Oracle Solaris Cluster Geographic Edition EMC Symmetrix Remote Data Facility SRDF mediante Oracle Solaris Cluster Geographic Edition Si desea utilizar una replicaci n basada en almacenamiento sin el software de Oracle Solaris Cluster Geographic Edition consulte la documentaci n del software de replicaci n 2 Replicaci n dentro de un cl ster este m todo se utiliza como sustituci n para la duplicaci n basada en host Replicaci n basada en almacenamiento Hitachi TrueCopy e Hitachi Universal Replicator EMC Symmetrix Remote Data Facility SRDF 3 Replicaci n basada en aplicaciones Oracle Data Guard es un ejemplo de software de replicaci n basada en aplicaciones Este tipo de software se usa s lo para recuperar datos en caso de un problema grave Para obtener m s informaci n consulte Oracle Solaris Cluster Geographic Edition Data Replication Guide for Oracle Data Guard Cap tulo 4 M todos de
461. on un nivel de protecci n fence_level de ASYNC as ncrono no puede compartir el ctgid con ning n otro grupo de dispositivos del sistema pairdisplay g group name Group PairVol L R Port TID LU Seq LDEV P S Status Fence Seq P LDEV M group name pairl L CL1 C 0 9 54321 58 P VOL PAIR NEVER 12345 29 group name pairl R CL1 A 0 29 12345 29 S VOL PAIR NEVER 58 Compruebe que todos los nodos puedan controlar los grupos de replicaci n a Con el comando pairdisplay determine los nodos que contendr n la r plica primaria y la secundaria pairdisplay g group name Group PairVol L R Port TID LU Seq _LDEV P S Status Fence Seq P LDEV M group name pairl L CL1 C 0 9 54321 58 P VOL PAIR NEVER 12345 29 group name pairl R CL1 A 0 29 12345 29 S VOL PAIR NEVER 58 El nodo con el dispositivo local L en el estado P VOL contiene la r plica primaria el nodo con el dispositivo local L en el estado S VOL contiene la r plica secundaria b Convierta al nodo secundario en el primario para ello ejecute el comando horctakeover en el nodo que contenga la r plica secundaria horctakeover g group name Espere a que finalice la copia inicial de los datos antes de continuar con el paso siguiente c Compruebe que el nodo que ejecut horctakeover tenga el dispositivo local L en estado P VOL pairdisplay g group name Group PairVol L R Port TID LU Seq _LDEV P S Status Fenc
462. ona completo en todos los nodos configurados Tambi n puede utilizar el comando cluster shutdown con los cl sters de zona En los procedimientos de este capitulo phys schost refleja una solicitud de cl ster global El indicador de shell interactivo de clzonecluster es clzc schost gt 63 Descripci n general sobre el cierre y el arranque de un cl ster Nota Use el comando cluster shutdown para asegurarse de que todo el cl ster global se cierre correctamente El comando shutdown de Oracle Solaris se emplea con el comando clnode 1CL evacuate para cerrar nodos independientes Si desea obtener m s informaci n consulte Cierre de un cl ster en la p gina 65 o Cierre y arranque de un solo nodo de un cl ster en la p gina 73 Los comandos cluster shutdown y clzonecluster halt detienen todos los nodos comprendidos en un cl ster global o un cl ster de zona respectivamente al ejecutar las acciones siguientes 1 Pone fuera de l nea todos los grupos de recursos en ejecuci n 2 Desmonta todos los sistemas de archivos del cl ster correspondientes a un cl ster global o uno de zona 3 Elcomando cluster shutdown cierra los servicios de dispositivos activos en el cl ster global o de zona 4 El comando cluster shutdown ejecuta init 0 en los sistemas basados en SPARC lleva a todos los nodos del cl ster al indicador de solicitud OpenBoot PROM ok o al mensaje Press any key to continue Pulse cualquier tecla para co
463. ones IP para zonas de direcciones IP exclusivas 253 servicios multiusuario comprobar 251 servidor de qu rum de Oracle Solaris Cluster admitido como dispositivo de qu rum 196 servidores de qu rum Ver dispositivos de qu rum de servidor de qu rum shell seguro 26 27 sistema de archivos aplicaci n NFS configurar para replicaci n de datos 391 392 buscar nombres 338 quitarlo en un cl ster de zona 295 realizar copia de seguridad 338 restaurar la ra z encapsulada 360 restaurar ra z descripci n 350 desde el metadispositivo 353 desde el volumen 353 restaurar root no encapsulado 358 sistema de archivos de cl ster 97 192 administraci n 125 agregar 178 182 nodos de votaci n de cl ster global 125 nodos sin votaci n de cl ster global 125 quitar 182 184 Sistema de archivos de Veritas VxFS administrar 181 montaje de sistemas de archivos de cl ster 181 sistema operativo Oracle Solaris comando svcadm 272 control CPU 307 definici n de cl ster de zona 17 definici n de cl ster global 17 instrucciones especiales para iniciar nodos 77 79 instrucciones especiales para reiniciar un nodo 80 83 replicaci n basada en host 91 tareas administrativas de cl ster global 18 sistema operativo Solaris Ver tambi n sistema operativo Oracle Solaris sistemas de archivos de cl ster comprobar la configuraci n 180 opciones de montaje 180 sistemas de archivos globales Ver sistemas de archivos de cl ster SME c
464. ontinuar en el men de GRUB de los sistemas basados en x86 Sies necesario cierre el nodo Cap tulo 3 Cierre y arranque de un cl ster 75 Cierre y arranque de un solo nodo de un cl ster 76 Ejemplo 3 7 Ejemplo 3 8 SPARC Cierre de nodos del cl ster global El ejemplo siguiente muestra la salida de la consola cuando se cierra el nodo phys schost 1 La opci n g establece el per odo de gracia en cero la opci n y proporciona una respuesta yes autom tica para la pregunta de confirmaci n Los mensajes de cierre correspondientes a este nodo tambi n aparecen en las consolas de los otros nodos del cl ster global phys schost clnode evacuate nodename phys schost shutdown g0 y Wed Mar 10 13 47 32 phys schost 1 cl_runtime WARNING CMM monitoring disabled phys schost 1 INIT New run level 0 The system is coming down Please wait Notice rgmd is being stopped Notice rpc pmfd is being stopped Notice rpc fed is being stopped umount global devices nodeal busy umount global phys schost 1 busy The system is down syncing file systems done Program terminated ok x86 Cierre de nodos del cluster global El ejemplo siguiente muestra la salida de la consola cuando se cierra el nodo phys schost 1 La opci n g establece el per odo de gracia en cero la opci n y proporciona una respuesta yes autom tica para la pregunta de confirmaci n Los mensajes de cierre correspondientes a este nodo tam
465. onvierte en el programador predeterminado a partir del siguiente rearranque Para que esta configuraci n se aplique inmediatamente use el comando priocntl priocntl s C FSS Cap tulo 10 Configuraci n del control del uso de la CPU 309 Configuraci n del control de la CPU 310 Mediante la combinaci n de los comandos priocntl y dispadmin se asegura de que FSS se convierta en el programador predeterminado inmediatamente y de que permanezca despu s del rearranque Para obtener m s informaci n sobre c mo configurar una clase de programaci n consulte las p ginas de comando man dispadmin 1M y priocnt1 1 Nota Si FSS no es el programador predeterminado la asignaci n de recursos compartidos de CPU no se lleva a cabo En todos los nodos que usen el control de la CPU configure el n mero de recursos compartidos para los nodos de votaci n del cl ster global y el n mero m nimo de CPU disponibles en el conjunto de procesadores predeterminado La configuraci n de estos par metros protege procesos que se ejecuten en los nodos de votaci n de competir por las CPU con los procesos que se ejecuten en nodos sin votaci n Sino asigna un valor a las propiedades globalzoneshares y defaultpsetmin asumen sus valores predeterminados clnode set p globalzoneshares integer p defaultpsetmin integer node p defaultpsetmin entero_minimo_pestablecido_predeterminado Establece el numero minimo de recursos compartidos de CPU
466. opietarios Intel e Intel Xeon son marcas comerciales o marcas comerciales registradas de Intel Corporation Todas las marcas comerciales de SPARC se utilizan con licencia y son marcas comerciales o marcas comerciales registradas de SPARC International Inc AMD Opteron el logotipo de AMD y el logotipo de AMD Opteron son marcas comerciales o marcas comerciales registradas de Advanced Micro Devices UNIX es una marca comercial registrada de The Open Group Este software o hardware y la documentaci n pueden ofrecer acceso a contenidos productos o servicios de terceros o informaci n sobre los mismos Ni Oracle Corporation ni sus subsidiarias ser n responsables de ofrecer cualquier tipo de garant a sobre el contenido los productos o los servicios de terceros y renuncian expl citamente a ello Oracle Corporation y sus subsidiarias no se har n responsables de las p rdidas los costos o los da os en los que se incurra como consecuencia del acceso o el uso de contenidos productos o servicios de terceros Ce logiciel et la documentation qui l accompagne sont prot g s par les lois sur la propri t intellectuelle Ils sont conc d s sous licence et soumis des restrictions d utilisation et de divulgation Sauf disposition de votre contrat de licence ou de la loi vous ne pouvez pas copier reproduire traduire diffuser modifier breveter transmettre distribuer exposer ex cuter publier ou afficher le logiciel m me partiellement sous quelq
467. orciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Use clquorum 1CL para enumerar en una lista la configuraci n de qu rum clquorum show Enumeraci n en una lista la configuraci n de qu rum clquorum show Cluster Nodes Node Name phys schost 2 Node ID Al Quorum Vote Count al Reservation Key 0x43BAC41300000001 Node Name phys schost 3 Node ID 2 Quorum Vote Count 1 Cap tulo6 Administraci n de qu rum 217 Administraci n de dispositivos de qu rum 218 Reservation Key 0x43BAC41300000002 Quorum Devices Quorum Device Name d3 Enabled yes Votes ali Global Name dev did rdsk d20s2 Type shared_disk Access Mode scsi2 Hosts enabled phys schost 2 phys schost 3 Reparaci n de un dispositivo de qu rum Siga este procedimiento para reemplazar un dispositivo de qu rum que no funcione correctamente phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Quite el dispositivo de disco que va a sustituir como dispositivo de qu rum Nota
468. orden inverso ttl Tiempo de vida en segundos Un valor normal es 3600 Ap ndice A Ejemplo 411 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 3 Creela nueva asignaci n de DNS entre el nombre de host l gico del grupo de recursos de aplicaciones y la direcci n IP del cl ster en ambos cl sters Asigne el nombre de host l gico principal a la direcci n IP del cl ster secundario y el nombre sistema l gico secundario a la direcci n IP del cl ster primario update add lhost nfsrg prim ttl A ipaddress2fwd update add lhost nfsrg sec ttl A ipaddress1fwd update add ipaddress2rev in addr arpa ttl PTR lhost nfsrg prim update add ipaddressIrev in addr arpa ttl PTR lhost nfsrg sec Vvvoyv direcci n_IP_2 Direcci n IP del cl ster secundario hacia delante direcci n _IP_1 Direcci n IP del cl ster primario hacia delante 412 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A ndice A actualizar espacio de nombre global 130 actualizar manualmente informaci n de DID 188 189 adaptadores de transporte agregar 230 233 administraci n configuraci n de cl ster global 263 306 administraci n de energ a 263 administradores de vol menes Veritas 100 administrar cl ster con herramienta de interfaz gr fica de usuario GUI 365 373 cl steres de zona 18 cl steres globales 18 cl sters de zona 295 dispositivos rep
469. ormal correspondiente para cada sistema de archivos del disco ra z perteneciente al metadispositivo o al volumen Example Change from dev md dsk d1 dev md rdsk d10 7 ufs 1 no Change to dev dsk cotod0so dev rdsk cotod0so ufs 1 no Cap tulo 12 Copias de seguridad y restauraciones de clusters 355 Restauraci n de los archivos del cl ster 13 14 15 16 17 18 Ejemplo 12 7 Desmonte el sistema de archivos temporales y compruebe el dispositivo de discos b sico cd umount temp mountpoint fsck raw disk device Rearranque el nodo en modo multiusuario reboot Sustituya el ID del dispositivo cldevice repair rootdisk Use el comando metadb para recrear las r plicas de la base de datos de estado metadb c copies af raw disk device c copias Especifica el n mero de r plicas que se van a crear af dispositivo_disco_b sico Crea r plicas de base de datos de estado inicial en el denominado dispositivo de disco b sico Desde un nodo del cl ster que no sea el restaurado agregue el nodo restaurado atodos los grupos de discos phys schost 2 metaset s setname a h nodelist a Agrega crea el metaconjunto Configure el volumen o la duplicaci n para la ra z conforme a la documentaci n El nodo se rearranca en modo de cl ster Si el nodo era un host mediador de dos cadenas vuelva a agregar el mediador phys schost 2 metaset s setname a m hostname Rest
470. os la supervisi n de las rutas de disco y el sistema de archivos de cl ster consulte Oracle Solaris Cluster Concepts Guide Informaci n general sobre la administraci n de dispositivos globales y el espacio de nombre global La administraci n de grupos de dispositivos de Oracle Solaris Cluster depende del administrador de vol menes que est instalado en el cl ster Solaris Volume Manager est habilitado para trabajar con cl sters para poder agregar registrar y eliminar grupos de dispositivos mediante el comando metaset 1M de Solaris Volume Manager Si utiliza Veritas Volume Manager VxVM puede crear grupos de discos mediante los comandos de VxVM Registre los grupos de discos como grupos de dispositivos de Oracle Solaris Cluster con la 97 Informaci n general sobre la administraci n de dispositivos globales y el espacio de nombre global 98 utilidad clsetup Al eliminar los grupos de dispositivos de VxVM puede usar tanto el comando clsetup como los comandos de VxVM Nota No es posible acceder directamente a los dispositivos globales desde los nodos del cl ster global que no sean de votaci n El software Oracle Solaris Cluster crea autom ticamente un grupo de dispositivos de discos b sicos para cada dispositivo de disco y de cinta del cl ster Sin embargo los grupos de dispositivos del cl ster permanecen fuera de l nea hasta que se acceda a dichos grupos como dispositivos globales Al administrar grupos de dispos
471. os al encapsular discos Veritas Volume Manager en la p gina 145 Nota Estas instrucciones presentan un m todo v lido para recuperar datos de SRDF manualmente tras error completo de la sala primaria y volver a estar en l nea Consulte la documentaci n de EMC para ver otros m todos Inicie sesi n en la sala primaria del cl ster de campus para seguir estos pasos En el procedimiento que se describe a continuaci n dg es el nombre del grupo de dispositivos de SRDE En el momento del error la sala primaria de este procedimiento es phys campus 1 y la sala secundaria es phys campus 2 Inicie sesi n en la sala primaria del cl ster de campus y convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify En la sala primaria use el comando symrdf para consultar el estado de replicaci n de los dispositivos de RDF y visualizar informaci n acerca de ellos phys campus 1 symrdf g dgl query Consejo Los grupos de dispositivos con estado split dividido no est n sincronizados Si el estado del par de RDF es split dividido y el tipo de grupo de dispositivos es RDF1 fuerce una migraci n tras error del grupo de dispositivos de SRDF phys campus 1 symrdf g dgl force failover Visualice el estado de los dispositivos de RDF phys campus 1 symrdf g dgl query Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 12
472. os asignados Cap tulo 2 Oracle Solaris Cluster y RBAC 61 Modificaci n de las propiedades de RBAC de un usuario 62 Nota No es conveniente asignar perfiles de derechos directamente a usuarios Es m s adecuado indicarles que asuman funciones para poder ejecutar aplicaciones con privilegios Esta estrategia impide que los usuarios normales abusen de los privilegios Modificaci n de las propiedades de RBAC de un usuario desde la l nea de comandos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Elija el comando adecuado Para cambiar las autorizaciones las funciones o los perfiles de derechos asignados a un usuario definido en el mbito local utilice el comando usermod 1M Otra posibilidad es editar el archivo user_attr Use este m todo s lo en caso de emergencia Para cambiar las autorizaciones las funciones o los perfiles de derechos asignados a un usuario definido en un servicio de nombres utilice el comando smuser 1M Este comando requiere la autenticaci n por parte de un superusuario o de una funci n que pueda modificar archivos de usuario Puede aplicar el comando smuser a todos los servicios de nombres El comando smuser se ejecuta como cliente del servidor de Solaris Management Console Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A CAP TULO 3 Cierre y arranque de un cl ster
473. os comandos son id nticos Utilice uno de los m todos de la lista siguiente Oracle Solaris Cluster Manager GUI Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n cldevicegroup show Use cldevicegroup show para enumerar la configuraci n de todos los grupos de dispositivos del cl ster cldevicegroup show grupo_dispositivos Use cldevicegroup show grupo_dispositivos para enumerar la configuraci n de un solo grupo de dispositivos cldevicegroup status grupo_dispositivos Use cldevicegroup status grupo_dispositivos para determinar el estado de un solo grupo de dispositivos cldevicegroup status Use cldevicegroup status para determinar el estado de todos los grupos de dispositivos del cluster Use la opci n v con cualquiera de estos comandos para obtener informaci n mas detallada Enumeraci n del estado de todos los grupos de dispositivos cldevicegroup status Cluster Device Groups Device Group Status Device Group Name Primary Secondary Status dg schost 1 phys schost 2 phys schost 1 Online dg schost 2 phys schost 1 Offline dg schost 3 phys schost 3 phy shost 2 Online Enumeraci n de la configuraci n de un determinado grupo de dispositivos cldevicegroup show dg schost 1 Device Groups Device Group Name dg schost 1 Type SVM failback yes Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Adminis
474. os de RBAC en Oracle Solaris Cluster Perfiles de derechos de RBAC en Oracle Solaris Cluster Las opciones y los comandos seleccionados de Oracle Solaris Cluster Manager y Oracle Solaris Cluster que se introducen en la l nea de comandos usan RBAC para la autorizaci n Los comandos y las opciones de Oracle Solaris Cluster que requieran la autorizaci n de RBAC necesitan al menos uno de los niveles de autorizaci n siguientes Los perfiles de derechos de RBAC de Oracle Solaris Cluster se aplican a los nodos de votaci n y a los que no son de votaci n de cl ster global solaris cluster read Autorizaci n para operaciones de enumeraci n visualizaci n y otras operaciones de lectura solaris cluster admin Autorizaci n para cambiar el estado de un objeto de cl ster solaris cluster modify Autorizaci n para cambiar las propiedades de un objeto de cl ster Para obtener m s informaci n sobre la autorizaci n de RBAC que necesita un comando de Oracle Solaris Cluster consulte la p gina de comando man Los perfiles de derechos de RBAC tienen al menos una autorizaci n de RBAC Puede asignar estos perfiles de derechos a los usuarios o a las funciones para darles distintos niveles de acceso a Oracle Solaris Cluster Oracle proporciona los perfiles de derechos siguientes con el software Oracle Solaris Cluster Nota Los perfiles de derechos de RBAC que aparecen en la tabla siguiente contin an admitiendo las autorizaciones antiguas de RBAC
475. os de dispositivos TABLA 5 4 Mapa de tareas administrar grupos de dispositivos Continuaci n Tarea Instrucciones Agregar grupos de discos de Veritas Volume Manager como grupos de dispositivos con los comandos VxVM y clsetup Eliminar los grupos de dispositivos de Veritas Volume Manager de la configuraci n mediante los comandos de clsetup para generar cldevicegroup Agregar un nodo a un grupo de dispositivos de Veritas Volume Manager con clsetup para generar cldevicegroup Eliminar un nodo de un grupo de dispositivos de Veritas Volume Manager con clsetup para generar cldevicegroup Eliminar un nodo de un grupo de dispositivos de discos b sicos con el comando cldevicegroup Modificar las propiedades del grupo de dispositivos con clsetup para generar cldevicegroup Mostrar las propiedades y los grupos de dispositivos con el comando cldevicegroup show Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager en la p gina 141 Creaci n de un nuevo grupo de discos al encapsular discos Veritas Volume Manager en la p gina 145 Adici n de un volumen nuevo a un grupo de dispositivos ya creado Veritas Volume Manager en la p gina 147 Conversi n de un grupo de discos en un grupo de dispositivos Veritas Volume Manager en la p gina 148 Asignaci n de un n mero menor nuevo a un grupo de dispositivos Veritas Volume Manager en la p gina 148
476. os siguientes Cuando aparezca el ment GRUB seleccione la entrada de Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line 10 Compruebe que el nodo haya arrancado sin errores y est en linea cluster status t node Administracion de redes publicas 242 El software Oracle Solaris Cluster admite la implementaci n del software de Oracle Solaris de IPMP Internet Protocol network Multipathing para las redes p blicas La administraci n b sica de IPMP es igual en los entornos con cl steres y sin cl steres El m todo de ruta m ltiple se instala autom ticamente al instalar el sistema operativo Oracle Solaris 10 y se debe habilitar para utilizarlo La administraci n de varias rutas se trata en la documentaci n correspondiente del sistema operativo Oracle Solaris No obstante consulte las indicaciones siguientes antes de administrar IPMP en un entorno de Oracle Solaris Cluster Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de redes p blicas Administraci n de grupos de varias rutas de red IP en un cl ster Antes de realizar procedimientos rela
477. ositivos globales desde un dispositivo de lofi hasta una partici n dedicada Convi rtase en superusuario del nodo de votaci n del cl ster global cuya ubicaci n de espacio de nombre desee modificar Evacuar los servicios fuera del nodo y reiniciar el nodo en un modo que no sea de cl ster Lleve a cabo esta tarea para garantizar que este nodo no preste servicio a los dispositivos globales mientras se realice este procedimiento Para obtener instrucciones consulte Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 En un disco local del nodo cree una nueva partici n que cumpla con los requisitos siguientes Un tama o m nimo de 512 MB Usael sistema de archivos UFS Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos 10 11 Agregue una entrada al archivo etc vfstab para que la nueva partici n se monte como sistema de archivos de dispositivos globales Determine el ID de nodo del nodo actual usr sbin clinfo nnode ID Creela nueva entrada en el archivo etc vfstab con el formato siguiente blockdevice rawdevice global devices node nodeID ufs 2 no global Por ejemplo si la partici n que elige es dev did rdsk d5s3 la entrada nueva que se agrega al archivo etc vfstab debe ser dev did dsk d5s3 dev did rdsk d5s3 global devices node 3 ufs 2 no global Desmonte la partici n de los dispositivos gl
478. ow d2 cldevice C72740 DID Device Ins DID Device Name Full Device Path Full Device Path Full Device Path Full Device Path Replication default_ fencing v 122 dev did rdsk d108 pmoney3 dev rdsk c5t6006048000018799018253594D303637d0 pmoney4 dev rdsk c5t6006048000018799018253594D303637d0 none global EJEMPLO 5 18 Combinaci n de instancias de DID Desde la parte de RDF2 escriba cldevice combine t srdf g dgl d d217 d108 EJEMPLO 5 19 Visualizaci n de DID combinados Desde cualquier nodo del cl ster escriba 17 d108 2 Could not locate instance 108 tances dev did rdsk d217 pmoney1 dev rdsk c5t6006048000018790002353594D303637d0 pmoney2 dev rdsk c5t6006048000018790002353594D303637d0 pmoney4 dev rdsk c5t6006048000018799018253594D303637d0 pmoney3 dev rdsk c5t6006048000018799018253594D303637d0 srdf global Recuperaci n de datos de EMC SRDF tras un error completo de la sala primaria Este procedimiento realiza una recuperaci n de los datos cuando la sala primaria de un cl ster de campus experimenta un error completo la sala primaria migra tras error a una sala secundaria posteriormente la sala primaria vuelve a estar en l nea La sala primaria del cl ster de campus es el nodo primario y el sitio de almacenamiento El error completo de una sala incluye el del host y el del almacenamiento de dicha sala Si hay un error en la sala primaria autom ticamente Oracle Solaris
479. p vol01 global mountpoint ufs 3 no global logging Si desea recordar los nombres y los n meros de vol menes utilizados en el grupo de dispositivos consulte la Figura A 8 En el nodo nodeA cree un volumen para la informaci n del sistema de archivos utilizada por el servicio de datos de Oracle Solaris Cluster HA para NFS nodeA vxassist g devgrp make vol05 120m disk El volumen 5 vo105 contiene la informaci n del sistema de archivos utilizada por el servicio de datos Oracle Solaris Cluster HA para NFS En el nodo nodeA vuelva a sincronizar el grupo de dispositivos con el software Oracle Solaris Cluster nodeA cldevicegroup sync devgrp En el nodo nodeA cree el sistema de archivos para el vol05 nodeA newfs dev vx rdsk devgrp vol05 Ap ndice A Ejemplo 391 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite 10 Pasos siguientes 392 v Antes de empezar En el nodo nodeA y el nodo nodeB cree un punto de montaje para el vol05 El ejemplo siguiente crea el punto de montaje global etc nodeA mkdir global etc En el nodo nodeA y el nodo nodeB configure el vol 05 para que se monte autom ticamente en el punto de montaje Agregue o sustituya el texto siguiente en el archivo etc vfstab del nodo nodeA y el nodo nodeB El texto debe estar en una sola l nea dev vx dsk devgrp vol05 dev vx rdsk devgrp vol05 global etc ufs 3 yes global logging Mo
480. plicado con Hitachi TrueCopy Antes de poder comprobarse es preciso crear el grupo de dispositivos globales Puede usar grupos de dispositivos de Solaris Volume Manager Veritas Volume Manager ZFS o disco b sico Si desea obtener m s informaci n consulte Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la p gina 136 Adici n y registro de un grupo de dispositivos disco b sico en la pagina 138 Adici n y registro de un grupo de dispositivos replicado ZFS en la p gina 139 Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager en la p gina 141 Precauci n El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado Solaris Volume Manager Veritas Volume Manager o disco b sico debe ser id ntico al del grupo de dispositivos replicado phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Compruebe que el grupo de dispositivos primario se corresponda con el mismo nodo que contiene la r plic
481. posible que la supervision de rutas de disco no pueda actualizar el estado de una ruta con errores al volver a conectarse en linea Un error de la ruta supervisada hace que se rearranque un nodo El dispositivo que est en la ruta de DID supervisada s lo vuelve a ponerse en linea despu s de que tambi n lo haya hecho el nodo rearrancado Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la supervisi n de rutas de disco Se informa sobre un estado de ruta de disco incorrecta porque el dispositivo de DID supervisado no est disponible al arrancar y la instancia de DID no se carga en el controlador de DID Cuando suceda esto actualice manualmente la informaci n de DID Desde un nodo actualice el espacio de nombre de dispositivos globales cldevice populate Compruebe en todos los nodos que haya finalizado el procesamiento del comando antes de continuar con el paso siguiente El comando se ejecuta de forma remota en todos los nodos incluso al ejecutarse en un solo nodo Para determinar si ha concluido el procesamiento del comando ejecute el comando siguiente en todos los nodos del cl ster ps ef grep cldevice populate Compruebe que dentro del intervalo de tiempo de consulta de DPM la ruta de disco err nea tenga ahora un estado correcto cldevice status disk device Device Instance Node Status dev did dsk dN phys schost 1 Ok Supervisi n de rut
482. pter Port Names Adapter Port State 0 Transport Adapter Adapter State Adapter Transport Type Adapter Property device name Adapter Property device instance Adapter Property lazy free Adapter Property dlpi_ heartbeat_timeout Adapter Property dlpi_heartbeat_quantum Adapter Property nw_ bandwidth Adapter Property bandwidth Adapter Property ip_address Adapter Property netmask Adapter Port Names Adapter Port State 0 1 10000 1000 80 10 172 16 1 1 255 255 255 128 0 Enabled hme0 Enabled dlpi hme 0 0 10000 1000 80 10 172 16 0 129 255 255 255 128 0 Enabled SNMP MIB Configuration on phys schost 1 SNMP MIB Name State Protocol Event Disabled SNMPv2 SNMP Host Configuration on phys schost 1 SNMP User Configuration on phys schost 1 SNMP User Name Authentication Protocol Default User Node Name Node ID Type Enabled privatehostname reboot_on_ path failure globalzoneshares defaultpsetmin quorum vote quorum defaultvote quorum resv_key Transport Adapter List Transport Adapters for phys schost 2 Transport Adapter Adapter State Adapter Transport Type Adapter Property device name foo MD5 No phys schost 2 za 2 cluster yes clusternode2 priv disabled 1 2 1 1 0x43CB1E1800000002 hme0 qfe3 hme0 Enabled dlpi hme 38 Gu a de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Rev
483. que tiene el formato dev did rdsk d N al agregar una unidad a un conjunto de discos En el ejemplo siguiente las entradas del dispositivo de DID dev did rdsk d3 indican que phys schost 1 y phys schost 2 comparten la unidad DID Device Instances DID Device Name dev did rdsk d1 Full Device Path phys schost 1 dev rdsk cotodo DID Device Name dev did rdsk d2 Full Device Path phys schost 1 dev rdsk cot6d0 DID Device Name dev did rdsk d3 Full Device Path phys schost 1 dev rdsk c1t1d0 Full Device Path phys schost 2 dev rdsk c1t1d0 Agregue las unidades al conjunto de discos Utilice el nombre completo de la ruta de DID metaset s setname a dev did rdsk dN snombre_conjunto Especifique el nombre del conjunto de discos id ntico al del grupo de dispositivos a Agrega la unidad al conjunto de discos Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 137 cl ster Administraci n de grupos de dispositivos 138 Ejemplo 5 22 Nota No use el nombre de dispositivo de nivel inferior cNtX dY al agregar una unidad a un conjunto de discos Ya que el nombre de dispositivo de nivel inferior es un nombre local y no nico para todo el cl ster si se utiliza es posible que se prive al metaconjunto de la capacidad de conmutar a otra ubicaci n Compruebe el estado del conjunto de discos y de las unidades metaset s setname Adici n a un
484. r 362 11 12 13 14 15 16 Ejemplo 12 9 Instale el bloque de arranque en el disco nuevo usr sbin installboot usr platform uname i lib fs ufs bootblk raw disk device Rearranque el nodo en modo multiusuario reboot Actualice el ID del dispositivo con scdidadm 1M cldevice repair dev rdsk cotodo Ejecute el comando de encapsulado clvxvm para encapsular el disco y rearrancarlo Si se da un conflicto con cualquier otro sistema debido al n mero menor desmonte los dispositivos globales y vuelva a duplicar el grupo de discos Desmonte el sistema de archivos de dispositivo globales en el nodo del cl ster umount global devices node nodeid Vuelva a duplicar el grupo de discos rootdg en el nodo del cl ster vxdg reminor rootdg 100 Cierre el nodo y rearranquelo en modo de cluster shutdown g0 i6 y Restauraci n de un sistema de archivos root encapsulado Veritas Volume Manager El ejemplo siguiente muestra un sistema de archivos root restaurado en el nodo phys schost 1 desde el dispositivo de cinta dev rmt 0 Replace the failed disk and boot the node Inicie el nodo desde el CD del sistema operativo Oracle Solaris Escriba el comando siguiente en el indicador ok de la PROM OpenBoot ok boot cdrom s Use format and newfs to create partitions and file systems Mount the root file system on a temporary mount point mount dev dsk c0t0d0s0 a Restore the roo
485. r Supervise una ruta de disco cldevice monitor n node disk Compruebe que se supervise la ruta de disco cldevice status device Supervisi n de una ruta de disco en un solo nodo En el ejemplo siguiente se supervisa la ruta de disco schost 1 dev did rdsk d1 desde un solo nodo El daemon de DPM del nodo schost 1 es el nico que supervisa la ruta al disco dev did dsk dl cldevice monitor n schost 1 dev did dsk d1 cldevice status dl Device Instance Node Status dev did rdsk d1 phys schost 1 Ok Supervision de una ruta de disco en todos los nodos En el ejemplo siguiente se supervisa la ruta de disco schost 1 dev did dsk d1 desde todos los nodos La supervision de rutas de disco se inicia en todos los nodos en los que dev did dsk d1 sea una ruta valida cldevice monitor dev did dsk d1 cldevice status dev did dsk d1 Device Instance Node Status dev did rdsk d1 phys schost 1 Ok Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de la supervisi n de rutas de disco Ejemplo 5 47 Relectura de la configuraci n de disco desde CCR En el ejemplo siguiente se fuerza al daemon a que relea la configuraci n de disco desde CCR e imprima las rutas de disco supervisadas con su estado cldevice monitor cldevice status Device Instance Node Status dev did rdsk d1l schost 1 Ok dev did rdsk d2 schost 1 Ok dev did rdsk d3 schost 1 Ok sc
486. r a la siguiente dev vx rdsk devgrp vol01 lt lhost reprg prim dev vx rdsk devgrp vol01 autosync off max q writes 4194304 max q fbas 16384 mode sync ctag devgrp state logging En el nodo nodeA y el nodo nodeC el estado debe ser logging y el estado activo de la sincronizaci n autom tica debe ser off Confirme que el cl ster secundario est listo para asumir las funciones del primario nodeC fsck y dev vx rdsk devgrp vol01 Conmute al cl ster secundario nodeC clresourcegroup switch n nodeC nfs rg Vaya a Actualizaci n de la entrada de DNS en la p gina 411 Actualizacion de la entrada de DNS Si desea una ilustraci n de c mo asigna el DNS un cliente a un cl ster consulte la Figura A 6 Realice el procedimiento Procedimiento para propiciar una conmutaci n en la p gina 410 Inicie el comando nsupdate Para obtener m s informaci n consulte la p gina de comando man nsupdate 1M Elimine en ambos cl sters la asignaci n de DNS actual entre el nombre de host l gico del grupo de recursos de aplicaciones y la direcci n IP del cluster gt update delete lhost nfsrg prim A gt update delete lhost nfsrg sec A gt update delete ipaddresslrev in addr arpa ttl PTR lhost nfsrg prim gt update delete ipaddress2rev in addr arpa ttl PTR lhost nfsrg sec direcci n_IP_1_ inverso Direcci n IP del cl ster primario en orden inverso direcci n_IP_2 inverso Direcci n IP del cl ster secundario en
487. r el procedimiento de restauraci n compruebe que el cl ster se ejecute con errores Nota Como el disco nuevo debe particionarse con el mismo formato que el defectuoso identifique el esquema de partici n antes de comenzar el proceso y vuelva a crear los sistemas de archivos de forma adecuada phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Sustituya el disco defectuoso en el nodo donde se restaurar el sistema de archivos root Consulte los procesos de sustituci n en la documentaci n que se suministra con el servidor Arranque el nodo que est restaurando Siesta usando el CD del sistema operativo Oracle Solaris escriba el comando siguiente en el indicador ok de la PROM OpenBoot ok boot cdrom s Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster 10 Siesta usando un servidor JumpStart de Solaris escriba el comando siguiente en el indicador ok de la PROM OpenBoot ok boot net s Cree todas las particiones e intercambie el espacio del disco root mediante el comando format Vuelva a crear el esquema de partici n original que estaba en el disco d
488. r rg El grupo de recursos de replicaciones replicaciones y los i m tecutsos lhost reprg prim Los nombres de host l gicos para el grupo lhost reprg sec de recursos de replicaciones en el cl ster primario y el secundario devgrp stor El recurso de HAStoragePlus para el grupo de recursos de replicaciones El grupo de recursosde nfs rg El grupo de recursos de aplicaciones aplicaciones y los Tecirsos lhost nfsrg prim Los nombres de hosts l gicos para el grupo lhost nfsrg sec de recursos de aplicaciones en el cl ster primario y el secundario nfs dg rs El recurso de amp HAStoragePlus para la aplicaci n nfs rs El recurso de NFS Con la excepci n de devgrp stor rg los nombres de los grupos y recursos son nombres de ejemplos que se pueden cambiar cuando sea necesario El grupo de recursos de replicaciones debe tener un nombre con el formato nombre_grupo_dispositivos stor rg Este ejemplo de configuraci n utiliza el software VxVM Si desea m s informaci n sobre el software SDSSVM consulte el Cap tulo 4 Configuraci n del software Solaris Volume Manager de Oracle Solaris Cluster Software Installation Guide La figura siguiente ilustra los vol menes creados en el grupo de dispositivos Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite v Antes de empezar
489. r software clsetup 1CL Para obtener una lista completa de las tareas necesarias para agregar un nodo de cl ster consulte la Tabla 8 1 Mapa de tareas agregar un nodo del cl ster Para agregar un nodo a un grupo de recursos ya existente consulte Oracle Solaris Cluster Data Services Planning and Administration Guide Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Adici n de nodos a un cl ster Creaci n de un nodo sin votaci n zona en un cl ster global Esta secci n ofrece los procedimientos siguientes e informaci n para crear un nodo sin votaci n denominado zona en un nodo de cl ster global Creaci n de un nodo sin votaci n en un cl ster global Convi rtase en superusuario en el nodo del cl ster global en el que vaya a crear un nodo que no sea de votaci n Debe encontrarse en la zona global Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gesti n de servicios SMF est n en l nea Silos servicios todav a no est n en l nea para un nodo espere hasta que cambie el estado y aparezca como en l nea antes de continuar con el siguiente paso phys schost svcs multi user server node STATE STIME FMRI online 17 52 55 svc milestone multi user server default Configure instale e inicie la nueva zona Nota Debe establecer la propiedad autoboot en true para admitir el uso de las funciones de grupos de recursos en un nodo del
490. ra alojar el espacio de nombre de dispositivos globales no hay l mites en el uso de ZFS para sistemas de archivos root Los procedimientos siguientes describen c mo desplazar un espacio de nombre de dispositivos globales ya existente desde una partici n dedicada hasta un dispositivo de lofi y viceversa Migraci n del espacio de nombre de dispositivos globales desde una partici n dedicada hasta un dispositivo de lofi en la p gina 133 Migraci n del espacio de nombre de dispositivos globales desde un dispositivo de lofi hasta una partici n dedicada en la p gina 134 Migraci n del espacio de nombre de dispositivos globales desde una partici n dedicada hasta un dispositivo de lofi Convi rtase en superusuario del nodo de votaci n del cl ster global cuya ubicaci n de espacio de nombre desee modificar Evacue los servicios fuera del nodo y reinicie el nodo en un modo que no sea de cl ster Haga esto para garantizar que este nodo no preste servicio a los dispositivos globales mientras se realice este procedimiento Para obtener instrucciones consulte Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 Compruebe que en el nodo no exista ning n archivo denominado globaldevices Silo hay elim nelo Cree el dispositivo de lofi mkfile 100m globaldevices lofiadm a globaldevices LOFI_DEV lofiadm globaldevices newfs echo LOFI DEV sed e s lofi rlofi g
491. ra del cl ster global para tareas de prueba Determine si el dispositivo de qu rum se utiliza en el metaconjunto de Solaris Volume Manager y siusa reservas de SCSI2 y SCSI3 phys schost clquorum show a Sieldispositivo de qu rum se encuentra en el metaconjunto de Solaris Volume Manager agregue un dispositivo de qu rum nuevo que no sea parte del metaconjunto para ponerlo m s tarde en un modo que no sea de cl ster phys schost clquorum add did b Elimine el dispositivo de qu rum antiguo phys schost clqorum remove did c Siel dispositivo de qu rum usa una reserva de SCSI2 quite la reserva de SCSI2 de qu rum antiguo y compruebe que no queden reservas de SCSI2 Para saber c mo ejecutar los comandos pgre es necesario instalar y utilizar el paquete Diagnostic Toolkit SUNWscdtk proporcionado por el equipo de asistencia de Oracle Evacue el nodo de cl ster global que desea arrancar en un modo que no sea de cl ster phys schost clresourcegroup evacuate n targetnode Ponga fuera de l nea todos los grupos de recursos que contengan recursos HAStorage o HAStoragePlus y que contengan dispositivos o sistemas de archivos afectados por el metaconjunto que desee poner en un modo que no sea de cl ster m s tarde phys schost clresourcegroup offline resourcegroupname Inhabilite todos los recursos de los grupos de recursos puestos fuera de linea phys schost clresource disable resourcename Anule la administraci n de lo
492. ra obtener m s informaci n phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos 1 Compruebe que se instale la parte f sica de cable de transporte de clusters Si desea informaci n sobre c mo instalar un cable de transporte de cl ster consulte el Oracle Solaris Cluster 3 3 Hardware Administration Manual 2 Convi rtase en superusuario en un nodo de cl ster 3 Inicie la utilidad clsetup clsetup Aparece el men principal 4 Escriba el n mero correspondiente a la opci n de mostrar el men Interconexi n del cl ster 5 Escriba el n mero correspondiente a la opci n de agregar un cable de transporte Siga las instrucciones y escriba la informaci n que se solicite 6 Escriba el n mero correspondiente a la opci n de agregar el adaptador de transporte a un nodo Siga las instrucciones y escriba la informaci n que se solicite Si tiene pensado usar alguno de los adaptadores siguientes para la interconexi n de cl ster agregue la entrada pertinente al archivo etc system en cada nodo del cl ster La entrada surtir efecto la pr xima vez que se arranque el sistema Adaptador Entrada ce establecer ce ce_taskq_disable 1 ipge estab
493. raci n del cl ster 272 tc_n mero_puerto Especifica el n mero del puerto del concentrador de terminales Los n meros de puerto dependen de la configuraci n Los puertos 2 y 3 5002 y 5003 suelen usarse para el primer cl ster instalado en un sitio Cierre el nodo del cl ster mediante el comando clnode evacuate y a continuaci n mediante el comando shutdown El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia El comando tambi n conmuta todos los grupos de recursos del nodo especificado de votaci n o sin votaci n de cl ster global por el siguiente nodo de votaci n o sin votaci n preferido phys schost clnode evacuate node shutdown g0 y Precauci n No use send brk en una consola del cl ster para cerrar el nodo del cl ster Ejecute los comandos de OBP Cambio del nombre de host privado de nodo Use este procedimiento para cambiar el nombre de host privado de un cl ster una vez finalizada la instalaci n Durante la instalaci n inicial del cl ster se asignan nombre de host privados predeterminados El nombre de host privado usa el formato clusternode lt id_nodo gt priv por ejemplo clusternode3 priv Cambie un nombre de host privado s lo si el nombre ya se utiliza en el dominio Precauci n No intente asignar direcciones IP alos nuevos nombres de host privados Las asigna el software de agrupaci n en cl ster phys schos
494. racle rdsk d1 Se agrega una entrada para el sistema de archivos de cl ster en el archivo vfstab de cada nodo A continuaci n se ejecuta el comando cluster check desde un nodo Tras comprobar que configuraci n se haya efectuado correctamente se monta el sistema de archivos de cl ster desde un nodo y se verifica en todos los nodos phys schost newfs dev md oracle rdsk dl phys schost mkdir p global oracle d1 phys schost vi etc vfstab device device mount FS fsck mount mount to mount to fsck point type pass at boot options Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 181 cl ster Administraci n de sistemas de archivos de cl ster 182 dev md oracle dsk d1 dev md oracle rdsk d1 global oracle dl ufs 2 yes global Logging phys schost cluster check k vfstab phys schost mount global oracle d1 phys schost mount global oracle d1 on dev md oracle dsk dl read write setuid global logging largefiles on Sun Oct 3 08 56 16 2005 Eliminaci n de un sistema de archivos de cl ster Para quitar un sistema de archivos de cl ster no tiene m s que desmontarlo Para quitar o eliminar tambi n los datos quite el dispositivo de disco subyacente o metadispositivo o metavolumen del sistema Nota Los sistemas de archivos de cl ster se desmontan autom ticamente como parte del cierre del sistema sucedido al ejecutar cluster shutdown para detener todo el cl
495. ration Guide Basic Administration En la pantalla de los par metros de arranque utilice las teclas de flecha para seleccionar la entrada de n cleo y escriba e para editarla La pantalla de los par metros de arranque de GRUB que aparece es similar a la siguiente GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu Agregue x al comando para especificar que el sistema arranque en un modo que no sea de cl ster Minimal BASH like line editing is supported For the first word TAB lists possible command completions Anywhere else TAB lists the possible completions of a device filename ESC at any time exits grub edit gt kernel platform i86pc multiboot x Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los par metros de arranque La pantalla muestra el comando editado GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a 256 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Eliminaci n de nodos de un cl ster 6 kernel platform
496. rcione la autorizaci n RBAC solaris cluster admin sobre el nodo del cl ster que se va a cerrar Siga todos los pasos de este procedimiento desde un nodo del cl ster global Si desea detener un determinado miembro de un cl ster de zona omita los pasos del 4 al 6 y ejecute el comando siguiente desde un nodo del cl ster global phys schost clzonecluster halt n physical name zoneclustername Al especificar un determinado nodo de un cl ster de zona s lo se detiene ese nodo El comando halt detiene de forma predeterminada los clusters de zona en todos los nodos Conmute todos los grupos de recursos recursos y grupos de dispositivos del nodo que se va a cerrar a otros miembros del cl ster global En el nodo del cl ster global que se va a cerrar escriba el comando siguiente El comando clnode evacuate conmuta todos los grupos de recursos y de dispositivos incluidas las zonas no globales del nodo especificado al siguiente nodo por orden de preferencia Tambi n puede ejecutar clnode evacuate dentro de un nodo de un cl ster de zona phys schost clnode evacuate node nodo Especifica el nodo desde el que est conmutando los grupos de recursos y de dispositivos Cierre el nodo Especifique el nodo del cl ster global que quiera cerrar phys schost shutdown g0 y i0 Compruebe que el nodo del cl ster global muestre el indicador ok en los sistemas basados en SPARC o el mensaje Press any key to continue Pulse cualquier tecla para c
497. re the selected line d to remove the selected line or escape to go back to the main menu e Escriba b para arrancar el nodo en un modo que no sea de cl ster Nota Este cambio en el comando del par metro de arranque del n cleo no se conserva tras arrancar el sistema La pr xima vez que rearranque el nodo lo har en modo de cl ster Para arrancarlo en el modo que no es de cl ster realice estos pasos de nuevo para agregar la opci n sx al comando del par metro de arranque del n cleo Aplique el parche de software o firmware Ejecute el comando siguiente nodo por nodo patchadd M patch dir patch id dir_parche Especifica la ubicaci n del directorio del parche id_parche Especifica el n mero de parche de un parche concreto Nota Siga siempre las instrucciones del directorio de parches que sustituyen los procedimientos de este cap tulo Compruebe que el parche se haya instalado correctamente en todos los nodos showrev p grep patch id Despu s de aplicar el parche en todos los nodos rearranque los nodos en el cl ster Ejecute el comando siguiente en todos los nodos reboot Compruebe si debe confirmar el software del parche con el comando scversions usr cluster bin scversions Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster 10 Ejemplo 11 2 V ase tambi n Aparece uno de los
498. reas administrativas principales que se realizan en un cl ster de zona Creaci n de un cl ster de zona use el comando clzonecluster configure para crear un cl ster de zona Consulte las instrucciones de Configuraci n de un cl ster de zona de Oracle Solaris Cluster Software Installation Guide Inicio y rearranque de un cl ster de zona consulte el Cap tulo 3 Cierre y arranque de un cl ster Adici n de un nodo a un cl ster de zona consulte el Cap tulo 8 Adici n y eliminaci n de un nodo Eliminaci n de un nodo de un cl ster de zona consulte Eliminaci n de un nodo de un cl ster de zona en la p gina 254 Visualizaci n de la configuraci n de un cl ster de zona consulte Visualizaci n de la configuraci n del cl ster en la p gina 36 Validaci n de la configuraci n de un cl ster de zona consulte Validaci n de una configuraci n b sica de cl ster en la p gina 45 Detenci n de un cl ster de zona consulte el Cap tulo 3 Cierre y arranque de un cl ster Restricciones de las funciones del sistema operativo Oracle Solaris No se deben habilitar ni inhabilitar los siguientes servicios de Oracle Solaris Cluster mediante la interfaz de la Utilidad de gesti n de servicios SMF TABLA 1 1 Oracle Solaris ClusterServices Servicios de Oracle Solaris Cluster FMRI pnm svc system cluster pnm default cl_event svc system cluster cl_event default cl_eventlog svc sys
499. reboot Para un nodo del cluster global use los comandos clnode evacuate y shutdown seguidos de boot x en SPARC o en la edici n de entradas del men de GRUB en x86 Si el cl ster global subyacente se arranca en un modo que no sea de cl ster el nodo del cl ster de zona pasa autom ticamente al modo que Arranque de un nodo en la p gina 77 Rearranque de un nodo en la p gina 80 Rearranque de un nodo en un modo que no sea de cl ster en la p gina 84 no sea de cl ster v Cierre de un nodo phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Cierre y arranque de un solo nodo de un cl ster Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Precauci n No use send brk en una consola de cl ster para cerrar un nodo del cl ster global ni de un cl ster de zona El comando no puede utilizarse dentro de un cl ster Si el cl ster ejecuta Oracle RAC cierre todas las instancias de base de datos del cl ster que va a cerrar Consulte la documentaci n del producto de Oracle RAC para ver los procedimientos de cierre Convi rtase en superusuario o asuma una funci n que propo
500. rectamente al archivo XML vi configfile Restauraci n de los archivos del cl ster El comando ufsrestore 1M copia en disco los archivos relativos al directorio actual en funcionamiento desde copias de seguridad creadas con el comando ufsdump 1M Puede usar ufsrestore para recargar una jerarqu a completa del archivo de sistemas desde el volcado de nivel 0 y los volcados que le siguen o para restaurar al menos un archivo individual desde cualquier cinta de volcado Si ufsrestore se ejecuta como superusuario o asume una funci n equivalente los archivos se restauran con el propietario original la ltima hora de modificaci n y el modo permisos Antes de empezar a restaurar los archivos o los sistemas de archivos debe conocer la informaci n siguiente Las cintas que necesita El nombre del dispositivo b sico en el que va a restaurar el sistema de archivos El tipo de unidad de cinta que va a utilizar a F nombre del dispositivo local o remoto para la unidad de cinta El esquema de partici n de cualquier disco donde haya habido un error porque las particiones y los sistemas de archivos deben estar duplicados exactamente en el disco de reemplazo Cap tulo 12 Copias de seguridad y restauraciones de clusters 349 Restauraci n de los archivos del cl ster 350 TABLA 12 2 Mapa de tareas restaurar los archivos del cl ster Tarea Instrucciones Para Solaris Volume Manager restaurarlos Restauraci n de
501. resultados siguientes Upgrade commit is needed Upgrade commit is NOT needed All versions match Si se necesita confirmaci n confirme el software del parche scversions c Nota Al ejecutar scversions al menos hay una reconfiguraci n de CMM depende de la situaci n Compruebe que funcione el parche y que los nodos y el cl ster funcionen correctamente Aplicaci n de un parche de rearranque cl ster El ejemplo siguiente muestra la aplicaci n de un parche de rearranque de Oracle Solaris Cluster en un cl ster cluster shutdown g0 y Arranque el cl ster en un modo monousuario que no sea de cl ster SPARC tipo ok boot sx x86 arranque todos los nodos en un modo monousuario que no sea de cl ster Consulte los pasos en el siguiente procedimiento patchadd M var tmp patches 234567 05 Apply patch to other cluster nodes showrev p grep 234567 05 reboot scversions Upgrade commit is needed scversions c Si necesita anular un parche consulte Cambio de un parche de Oracle Solaris Cluster en la pagina 335 Capitulo11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 329 Aplicaci n de parches del software Oracle Solaris Cluster 330 v Ejemplo 11 3 Aplicaci n de un parche de Oracle Solaris Cluster que no sea de rearranque Aplique el parche nodo por nodo en el cl ster Si aplica un parche que no es de reinicio el nodo que recibe
502. rranque en la p gina 330 sin detener el nodo Aplicar un parche de rearranque de Oracle Aplicaci n de un parche de rearranque nodo en la pagina 321 Solaris Cluster tras poner el miembro del A Aplicaci n de un parche de rearranque cl ster cl ster en un modo que no sea de cl ster en la p gina 326 Aplicar un parche en modo de usuario C mo aplicar parches en modo de un solo usuario a nodos con nico a nodos con zonas de conmutaci n zonas de conmutaci n por error en la p gina 331 por error Quitar un parche de Oracle Solaris Cluster Cambio de un parche de Oracle Solaris Cluster en la p gina 335 v Aplicaci n de un parche de rearranque nodo Aplicar el parche a un nodo en el cl ster de uno en uno para que el cl ster siga en funcionamiento durante el proceso de parche Con este procedimiento antes de aplicar el parche primero debe detener el nodo del cl ster y arrancarlo en modo monousuario con el comando boot sx o shutdown g y 10 Cap tulo 11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 321 Aplicaci n de parches del software Oracle Solaris Cluster 322 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de
503. rse en estado de mantenimiento Para poner un nodo de un cl ster en estado de mantenimiento consulte Colocaci n de un nodo en estado de mantenimiento en la p gina 279 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Ponga el dispositivo de qu rum en estado de mantenimiento clquorum disable device dispositivo Especifica el nombre DID del dispositivo de disco que se va a cambiar por ejemplo d4 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum Ejemplo 6 8 V ase tambi n Compruebe que el dispositivo de qu rum est en estado de mantenimiento La salida del dispositivo puesto en estado de mantenimiento debe tener cero como valor para los Votos del dispositivo del qu rum clquorum status device Colocaci n de un dispositivo de qu rum en estado de mantenimiento En el ejemplo siguiente se muestra c mo poner un dispositivo de qu rum en estado de mantenimiento y c mo comprobar los resultados
504. rum Device Name d2 Hosts enabled phys schost 1 phys schost 2 phys schost 3 Verify that the modified quorum device is online clquorum status d2 Cluster Quorum Cap tulo6 Administraci n de qu rum 213 Administraci n de dispositivos de qu rum Quorum Votes by Device Device Name 214 Present Possible Status 1 1 Online Y Colocaci n de un dispositivo de qu rum en estado de mantenimiento Use el comando clquorum 1CL para poner un dispositivo de qu rum en estado de mantenimiento Hoy por hoy la utilidad clsetup 1CL no tiene esta capacidad Este procedimiento tambi n puede efectuarse con la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n Ponga el dispositivo de qu rum en estado de mantenimiento cuando vaya a apartar del servicio el dispositivo de qu rum durante un per odo de tiempo prolongado De esta forma el n mero de votos de qu rum del dispositivo de qu rum se establece en cero y no aporta nada al n mero de qu rum mientras se efect an las tareas de mantenimiento en el dispositivo La informaci n de configuraci n del dispositivo de qu rum se conserva durante el estado de mantenimiento Nota Todos los cl sters de dos nodos deben tener configurado al menos un dispositivo de qu rum Si ste es el ltimo dispositivo de qu rum de un cl ster de dos nodos clquo rum el dispositivo no puede pone
505. ruser or assume a role that provides solaris cluster modify RBAC authorization on any cluster node Start the clsetup utility clsetup Select Quorum gt Add a quorum device Answer the questions when prompted You will need the following information Information Example Quorum Device Netapp_nas quorum device Name qd1 Filer nas1 sun com Cap tulo6 Administraci n de qu rum 203 Administraci n de dispositivos de qu rum LUN ID 0 Verify that the clquorum command was completed successfully clquorum add t netapp_nas p filer nas1 sun com p lun_id 0 qdl Command completed successfully Quit the clsetup Quorum Menu and Main Menu Verify that the quorum device is added clquorum list v Quorum Type qd1 netapp_nas scphyshost 1 node scphyshost 2 node Y Adici n de un dispositivo de quorum de servidor de quorum Antesde Antes de poder agregar un servidor de qu rum de Oracle Solaris Cluster como dispositivo del empezar qu rum el software del servidor del qu rum de Oracle Solaris Cluster debe estar instalado en la m quina de host y el servidor de qu rum debe haberse iniciado y estar en ejecuci n Si desea obtener informaci n sobre c mo instalar el servidor de qu rum consulte Instalaci n y configuraci n del software Servidor de qu rum de Oracle Solaris Cluster Software Installation Guide phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl
506. ruta m ltiple se instala autom ticamente con el sistema operativo Oracle Solaris 10 y se debe habilitar para utilizarlo Si despu s debe modificarse la configuraci n de las interconexiones entre redes y cl ster puede usar los procedimientos de software descritos en este cap tulo Si desea obtener informaci n sobre c mo configurar grupos de varias rutas IP en un cl ster consulte la secci n Administraci n de redes p blicas en la p gina 242 En este cap tulo hay informaci n y procedimientos para los temas siguientes Administraci n de interconexiones de clusters en la pagina 227 Administraci n de redes p blicas en la p gina 242 Si desea ver una descripci n detallada de los procedimientos relacionados con este cap tulo consulte la Tabla 7 1 y la Tabla 7 3 Consulte Oracle Solaris Cluster Concepts Guide para obtener informaci n general y de referencia sobre las interconexiones entre cl steres y redes p blicas Administraci n de interconexiones de cl sters En esta secci n se describen los procedimientos para reconfigurar las interconexiones de cl sters por ejemplo adaptador de transporte del cl sters y cable de transporte de cl sters Para poder realizarlos Oracle Solaris Cluster debe estar instalado Casi siempre se puede emplear la utilidad clsetup para administrar el transporte del cl ster en la interconexi n de cl ster Para obtener m s informaci n consulte la p gina de comando man
507. s como la lista de claves de registro y de reserva del dispositivo En el ejemplo siguiente los nodos con ID 1 2 3 y 4 del cl ster bastille han registrado sus claves en el servidor de qu rum Asimismo debido a que el Nodo 4 es propietario de la reserva del dispositivo de qu rum su clave figura en la lista de reservas usr cluster bin clquorumserver show 9000 Quorum Server on port 9000 Cluster bastille id 0x439A2EFB Reservation Node ID 4 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de servidores de qu rum de Oracle Solaris Cluster Ejemplo 6 16 Ejemplo 6 17 Reservation key 0x43922efb00000004 Cluster bastille id 0x439A2EFB Registrations Node ID 1 Registration key 0x439a2efb00000001 Node ID 2 Registration key 0x439a2efb00000002 Node ID 3 Registration key 0x439a2efb00000003 Node ID 4 Registration key 0x439a2efb00000004 Visualizaci n de la configuraci n de varios servidores de qu rum En el ejemplo siguiente se muestra la informaci n de configuraci n de tres servidores de qu rum qs1 q52 y qs3 usr cluster bin clquorumserver show qs1 qs2 qs3 Visualizaci n de la configuraci n de todos los servidores de qu rum en ejecuci n En el ejemplo siguiente se muestra la informaci n de configuraci n de todos los servidores de qu rum en ejecuci n usr cluster bin clquorumserver show Limpiez
508. s VGQ1 a dev did rdsk d24 metaset Set name VG01 Set number 1 Host Owner phys deneb 3 Yes phys deneb 1 phys deneb 2 Drive Dbase d22 Yes d23 Yes d24 Yes En este punto el grupo de dispositivos esta disponible para su uso se pueden crear metadispositivos y el grupo de dispositivos se puede desplazar a cualquiera de los tres nodos Sin embargo para incrementar la eficiencia de las conmutaciones y las migraciones tras error ejecute cldevicegroup set para marcar el grupo de dispositivos como replicado en la configuraci n del cl ster EJEMPLO 5 14 Transformaci n de las conmutaciones y las migraciones tras error en procesos eficientes cldevicegroup sync VGQ1 cldevicegroup show VGQ1 Device Groups Device Group Name vG01 Type SVM failback no Node List phys deneb 3 phys deneb 1 phys deneb 2 preferenced yes numsecondaries 1 device names VGO1 Replication type truecopy La configuracion del grupo de replicaciones se completa con este paso Para comprobar que la configuraci n haya sido correcta siga los pasos descritos en Comprobaci n de la configuraci n de un grupo de dispositivos globales replicado con Hitachi TrueCopy en la p gina 106 112 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos replicados basados en almacenamiento Administraci n de dispositivos replicados de EMC Symmetrix Remote Data Facility En la
509. s a replicated device Replicated devices cannot be configured as quorum devices Un dispositivo de qu rum de disco compartido es cualquier dispositivo de almacenamiento conectado que sea compatible con el software de Oracle Solaris Cluster El disco compartido se conecta a dos o m s nodos del cl ster Si se activa la protecci n un disco con doble puerto puede configurarse como dispositivo de qu rum que utilice SCSI 2 o SCSI 3 la opci n predeterminada es SCSI 2 Si se activa la protecci n y el dispositivo compartido est conectado a m s de dos nodos el disco compartido puede configurarse como dispositivo de qu rum que use el protocolo SCSI 3 es el predeterminado si hay m s de dos nodos Puede emplear el identificador de anulaci n de SCSI para que el software de Oracle Solaris Cluster deba usar el protocolo SCSI 3 con los discos compartidos de doble puerto Si desactiva la protecci n en un disco compartido a continuaci n puede configurarlo como dispositivo de qu rum que use el protocolo de qu rum de software Esto ser a cierto al margen de que el disco fuese compatible con los protocolos SCSI 2 o SCSI 3 El qu rum del software es un protocolo de Oracle que emula un formato de Reservas de grupo persistente PGR SCSI Precauci n Si utiliza discos que no son compatibles con SCSI como SATA debe desactivarse la protecci n de SCSI Para dispositivos de qu rum puede usar un disco que contenga datos de usuario o que sea miem
510. s al ejecutar el comando ccp o cconsole Para obtener m s informaci n consulte las p ginas de comando man ccp 1M y cconsole 1M phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Antes de iniciar el panel de control del cl ster compruebe que se cumplan los requisitos siguientes Instale el paquete SUNWccon en la consola de administraci n Compruebe que la variable PATH de la consola de administraci n incluya los directorios de herramientas de Oracle Solaris Cluster opt SUNWcluster bin y usr cluster bin Puede indicar una ubicaci n alternativa para el directorio de herramientas si establece la variable de entorno CLUSTER_HOME Configure el archivo clusters el archivo serialports y el archivo nsswitch conf si utiliza un concentrador de terminales Los archivos pueden ser archivos etc o bases de datos NIS o NIS Consulte las p ginas de comando man clusters 4 y serialports 4 si desea obtener m s informaci n Si dispone de una plataforma Servidor Sun Enterprise 10000 inicie sesi n en el procesador de servicios del sistema a Establezca la conexi n con el comando netcon b Una vez establecida la conexi n escriba Shift para de
511. s basada en host con el software Sun StorageTek Availability Suite dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Cuando se escribe el volumen de datos en el disco se actualiza el archivo de mapa de bits en el mismo disco No se produce ninguna replicaci n d Aseg rese de que el directorio PathPrefix est disponible nodeC mount grep global etc e Ponga en l nea el grupo de recursos de aplicaciones en el cl ster secundario nodeC clresourcegroup online n nodeC nfs rg f Obtenga acceso al equipo cliente como superusuario Ver un indicador con un aspecto similar al siguiente client machine g Monte en la aplicaci n el directorio creado en el Paso 4 en el cl ster secundario client machine mount o rw lhost nfsrg sec global mountpoint dir h Visualice el directorio montado client machine 1s dir 7 Compruebe que el directorio mostrado en el Paso 5 sea el mismo del Paso 6 8 Devuelva la aplicaci n del cl ster primario al directorio montado a Ponga fuera de l nea el grupo de recursos de aplicaciones del cl ster secundario nodeC clresource disable n nodeC nfs rs nodeC clresource disable n nodeC nfs dg rs nodeC clresource disable n nodeC Lhost nfsrg sec nodeC clresourcegroup online n nfs rg b Compruebe que el volumen global est desmontado desde el cluster secundario nodeC umount global mountpoint c Ponga en l nea el grupo de recursos de aplicaciones en el cl
512. s comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Nota Para crear un cl ster de zona siga las instrucciones de Configuraci n de un cl ster de zona de Oracle Solaris Cluster Software Installation Guide Cap tulo 3 Cierre y arranque de un cl ster 67 Descripci n general sobre el cierre y el arranque de un cl ster 68 1 Arranque todos los nodos en modo de cl ster Siga todos los pasos de este procedimiento desde un nodo del cl ster global En los sistemas basados en SPARC ejecute el comando siguiente ok boot En los sistemas basados en x86 ejecute los comandos siguientes Cuando aparezca el men GRUB seleccione la entrada de Oracle Solaris que corresponda y pulse Intro El men de GRUB que aparece es similar al siguiente GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Solaris failsafe Use the and v keys to select which entry is highlighted Press enter to boot the selected OS e to edit the commands before booting or c for a command line Para obtener mas informacion sobre el inicio basado en GRUB consulte Booting an x86 Based System by Using GRUB Task Map de System Administration Guide Basic Administration Nota Los nodos deben disponer de una conexi n operativa con la interconexi n de cl ster para poder
513. s es la r plica secundaria En la configuraci n de Oracle Solaris Cluster la r plica primaria se desplaza autom ticamente cada vez que se desplaza el grupo de dispositivos de Oracle Solaris Cluster al que pertenece Por lo tanto en una configuraci n de Oracle Solaris Cluster en principio la r plica primaria nunca se debe desplazar directamente La toma de control deber a tener lugar mediante el desplazamiento del grupo de dispositivos de Oracle Solaris Cluster asociado AN Precauci n El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado Solaris Volume Manager Veritas Volume Manager o disco b sico debe ser id ntico al del grupo de dispositivos replicado Esta secci n incluye los procedimientos siguientes Administraci n de dispositivos replicados mediante Hitachi TrueCopy en la pagina 101 Administraci n de dispositivos replicados de EMC Symmetrix Remote Data Facility en la p gina 113 Administraci n de dispositivos replicados mediante Hitachi TrueCopy En la tabla siguiente figuran las tareas necesarias para configurar con Hitachi TrueCopy un dispositivo replicado basado en almacenamiento Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 101 cl ster Administraci n de dispositivos replicados basados en almacenamiento 102 v Antes de empezar A TABLA 5 2 Mapa de tareas administrar un dispositivo replicado
514. s grupos de recursos phys schost clresourcegroup unmanage resourcegroupname Ponga fuera de l nea el grupo o los grupos de dispositivos correspondientes phys schost cldevicegroup offline devicegroupname Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Soluci n de problemas 10 11 12 13 14 15 16 17 Inhabilite el grupo o los grupos de dispositivos phys schost cldevicegroup disable devicegroupname Arranque el nodo pasivo en un modo que no sea de cluster phys schost reboot x Antes de seguir compruebe que haya finalizado el proceso de arranque en el nodo pasivo phys schost svcs x Determine si hay reservas de SCSI3 en los discos de los metaconjuntos Ejecute el comando siguiente en todos los discos de los metaconjuntos phys schost usr cluster lib sc scsi c inkeys d dev did rdsk dids2 Si hay reservas de SCSI3 en los discos quitelas phys schost usr cluster lib sc scsi c scrub d dev did rdsk dids2 Utilice el metaconjunto del nodo evacuado phys schost metaset s name C take f Monte el sistema o los sistemas de archivos que contengan el dispositivo definido en el metaconjunto phys schost mount device mountpoint Inicie la aplicaci n y realice la prueba que desee Cuando finalice la prueba detenga la aplicaci n Rearranque el nodo y espere hasta que el proceso de arranque haya terminado phys schost reboot Ponga en l n
515. s o despu s de cambiar el nombre del nodo para ello siga los pasos descritos en C mo cambiar el nombre de un nodo en la p gina 277 Este paso es opcional En el cl ster global convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster Silo desea puede cambiar los nombres de host l gicos utilizados por cualquiera de los recursos existentes de nombre de host l gico de Oracle Solaris Cluster En los pasos siguientes se describe c mo configurar el recurso apache 1h res para que funcione con el nuevo nombre de host l gico Se debe ejecutar en modo cl ster a Enel modo cl ster ponga fuera de l nea los grupos de recursos de Apache que contengan los nombres de host l gicos clrg offline apache rg b Deshabilite los recursos de nombre de host l gico de Apache clrs disable appache lh res c Proporcione la nueva lista de nombres de host clrs set p HostnameList test 2 apache lh res d Cambie las referencias de la aplicaci n a entradas anteriores en la propiedad hostnamelist para hacer referencia a las entradas nuevas e Habilitar los nuevos recursos de nombre de host l gico de Apache clrs enable apache 1lh res f Pongaenl nea los grupos de recursos de Apache clrg online apache rg g C
516. s pueden ser vulnerables y sufrir da os durante la migraci n tras error de una aplicaci n Si se plantea desactivar la protecci n tenga muy en cuenta la posibilidad de sufrir da os en los datos La protecci n puede desactivarse si el dispositivo de almacenamiento compartido no admite el protocolo SCSI o si desea permitir el acceso al almacenamiento del cl ster desde hosts situados fuera de dicho cl ster Para cambiar la configuraci n de protecci n predeterminada de un dispositivo de qu rum anule la configuraci n del dispositivo modifique la configuraci n de protecci n y vuelva a configurar el dispositivo de qu rum Si piensa desactivar y activar regularmente la protecci n de dispositivos entre los que figuran los de qu rum considere la posibilidad de configurar el qu rum a trav s de un servicio de servidor de qu rum y as eliminar las interrupciones en el funcionamiento del qu rum phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que cuente con autorizaci n RBAC solaris cluster modify Establezca el protocolo de protecci n para todos los dispositivos de almacenamiento que no sean de qu r
517. s supported For the first word TAB lists possible command completions Anywhere else TAB lists the possible completions of a device filename ESC at any time exits grub edit gt kernel platform i86pc multiboot x 340 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Copia de seguridad de un cl ster d Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los par metros de arranque La pantalla muestra el comando editado GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot x module platform i86pc boot_archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu e Escriba b para arrancar el nodo en un modo que no sea de cl ster Nota Este cambio en el comando del par metro de arranque del n cleo no se conserva tras arrancar el sistema La pr xima vez que rearranque el nodo lo har en modo de cl ster Para arrancarlo en el modo que no es de cl ster realice estos pasos de nuevo para agregar la opci n x al comando del par metro de arranque del n cleo Realice la copia de seguridad del sistema de archivos root creando una instant nea de UFS
518. sbloquear la consola y obtener acceso de escritura Desde la consola de administraci n inicie el launchpad del panel de control del cl ster phys schost ccp clustername Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster Antes de empezar Se muestra el launchpad del panel de control del cl ster Para iniciar una sesi n remota con el cl ster haga clic en el icono de cconsole crlogin cssh o ctelnet en el launchpad del panel de control del cl ster Conexi n segura a las consolas del cl ster Lleve a cabo este procedimiento para establecer conexiones de shell seguro con las consolas de los nodos del cl ster Configure los archivos clusters serialports y nsswitch conf si utiliza un concentrador de terminales Los archivos pueden ser archivos etc o bases de datos NIS o NIS Nota En el archivo serialports asigne el n mero de puerto que se va a utilizar para la conexi n segura a cada dispositivo con acceso ala consola El n mero de puerto predeterminado para la conexi n con shell seguro es el 22 Si desea obtener m s informaci n consulte las p ginas de comando man clusters 4 y serialports 4 Convi rtase en superusuario en la consola de administraci n Inicie la utilidad cconsole en modo seguro cconsole s l username p ssh port S Habilita la conexi n con shell seguro Lnombre_usuario Especifica
519. sco b sico Si desea obtener m s informaci n consulte Adici n y registro de un grupo de dispositivos Solaris Volume Manager en la p gina 136 Adici n y registro de un grupo de dispositivos disco b sico en la pagina 138 Adici n y registro de un grupo de dispositivos replicado ZFS en la p gina 139 Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager en la p gina 141 Precauci n El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado Solaris Volume Manager Veritas Volume Manager o disco b sico debe ser id ntico al del grupo de dispositivos replicado phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Compruebe que el grupo de dispositivos primario se corresponda con el mismo nodo que contiene la r plica primaria symdg show group name cldevicegroup status n nodename group name Realice una conmutaci n de prueba para asegurarse de que los grupos de dispositivos est n bien configurados y que las r plicas puedan desplazarse de unos nodos a otros Si el grupo de dispositivos est fuera de l nea p ngalo en l nea cldevicegroup switch n nodename
520. seguridad del sistema de archivos root Siga estos pasos para realizar una copia de seguridad del sistema de archivos root de un nodo del cl ster Antes de efectuar la copia de seguridad compruebe que el cl ster se ejecute sin errores phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en el nodo del cl ster del que va a realizar la copia de seguridad Conmute a otro nodo del cl ster todos los servicios de datos en ejecuci n del nodo del que se va arealizar la copia de seguridad clnode evacuate node nodo Especifica el nodo desde el que est conmutando los grupos de recursos y de dispositivos Cierre el nodo shutdown g0 y i0 Rearranque el nodo en un modo que no sea de cluster Capitulo12 Copias de seguridad y restauraciones de clusters 339 Copia de seguridad de un cl ster En los sistemas basados en SPARC ejecute el comando siguiente ok boot xs En los sistemas basados en x86 ejecute los comandos siguientes phys schost shutdown g y i0 Press any key to continue En el menu de GRUB utilice las te
521. ser id ntico al del grupo de dispositivos replicado Precauci n Hoy por hoy ZFS no es compatible con las tecnolog as de replicaci n de datos de otros proveedores Para obtener informaci n sobre las actualizaciones de la compatibilidad de ZFS consulte las notas sobre la versi n m s actuales de Oracle Solaris Cluster Elimine los grupos de dispositivos predeterminados que se correspondan con los dispositivos de zpool Por ejemplo si dispone de un zpool denominado mypool que contiene dos dispositivos dev did dsk d2 y dev did dsk d13 debe eliminar los dos grupos de dispositivos predeterminados llamados d2 y d13 cldevicegroup offline dsk d2 dsk d13 cldevicegroup remove dsk d2 dsk d13 Capitulo5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 139 cl ster Administraci n de grupos de dispositivos 2 Cree un grupo de dispositivos cuyos DID se correspondan con los del grupo de dispositivos eliminado en el Paso 1 cldevicegroup create d d2 d13 t rawdisk mypool Esta acci n crea un grupo de dispositivos denominado mypool con el mismo nombre que zpool que administra los dispositivos b sicos dev did dsk d2 y dev did dsk d13 3 Creeunzpool que contenga estos dispositivos zpool create mypool mirror dev did dsk d2 dev did dsk d13 4 Cree un grupo de recursos para administrar la migraci n de los dispositivos replicados en el grupo de dispositivos que s lo c
522. sh o ctelnet Inicie la unidad clzonecluster 1CL o la utilidad clsetup 1CL Utilice el comando clnode 1CL con el subcomando y la opci n show rev v nodo Utilice los comandos siguientes para mostrar la informaci n sobre recursos m clresource 1CL m clresourcegroup 1CL m clresourcetype 1CL Utilice Oracle Solaris Cluster Manager Utilice el m dulo de Oracle Solaris Cluster Manager o Oracle Solaris Cluster con Sun Management Center disponible s lo con Oracle Solaris Cluster en los sistemas basados en SPARC Utilice el comando cluster 1CL con el subcomando status Inicio de sesi n remota en el cl ster en la p gina 25 Conexi n segura a las consolas del cl ster en la p gina 27 Obtenci n de acceso a las utilidades de configuraci n del cl ster en la p gina 27 Visualizaci n de la informaci n de versi n de Oracle Solaris Cluster en la p gina 29 Visualizaci n de tipos de recursos configurados grupos de recursos y recursos en la p gina 31 Consulte la ayuda en l nea Para Oracle Solaris Cluster Manager consulte la ayuda en l nea Para Sun Management Center consulte la documentaci n de Sun Management Center Comprobaci n del estado de los componentes del cl ster en la p gina 32 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Procedimiento para empezar a administrar el cl ster TABLA 1 2
523. sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos v Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager Nota Este procedimiento s lo es v lido para inicializar discos Si est encapsulando discos use el procedimiento Creaci n de un nuevo grupo de discos al encapsular discos Veritas Volume Manager en la p gina 145 Tras agregar el grupo de discos VxVM debe registrar el grupo de dispositivos Si usa VxVM para configurar grupos de discos compartidos para Oracle RAC use la funci n de cl ster de VxVM como se describe en la Gu a de referencia del administrador de Veritas Volume Manager 1 Convi rtase en superusuario de cualquier nodo del cl ster que est conectado f sicamente a los discos que componen el grupo de discos que se agrega 2 Creeel grupo de discos y el volumen de VxVM Use el m todo que prefiera para crear el grupo de discos y el volumen Nota Si est configurando un volumen duplicado o reflejado use Dirty Region Logging DRL para reducir el tiempo de recuperaci n transcurrido tras un error de nodo Sin embargo es posible que DRL reduzca el rendimiento de E S Consulte la documentaci n de Veritas Volume Manager obtener informaci n sobre los procedimientos para completar este paso 3 Registre el grupo de discos de VxVM como grupo de dispositivos de Oracle Solaris Cluster Consulte Registro de un grupo
524. sk devgrp vol01 Y dev vx rdsk devgrp vol04 ip sync Cree un directorio en un equipo cliente a Reg strese en un equipo cliente como superusuario Ver un indicador con un aspecto similar al siguiente client machine b Cree un directorio en el equipo cliente client machine mkdir dir Monte el directorio de la aplicaci n en el cl ster primario y visualice el directorio montado a Monte el directorio de la aplicaci n en el cl ster primario client machine mount o rw lhost nfsrg prim global mountpoint dir b Visualice el directorio montado client machine 1s dir Monte el directorio de la aplicaci n en el cl ster secundario y visualice el directorio montado a Desmonte el directorio de la aplicaci n en el cl ster primario client machine umount dir b Ponga el grupo de recursos de aplicaciones fuera de l nea en el cl ster primario nodeA clresource disable n nodeA nfs rs nodeA clresource disable n nodeA nfs dg rs nodeA clresource disable n nodeA lhost nfsrg prim nodeA clresourcegroup online n nfs rg c Cambie el cl ster primario a modo de registro Ejecute el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n l lhost reprg prim dev vx rdsk devgrp vol01 Y dev vx rdsk devgrp vol04 lhost reprg sec Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de dato
525. sobre los cl steres de zona consulte Oracle Solaris Cluster Concepts Guide Un cl ster de zona se compone de uno o m s nodos de votaci n de marca cl ster Un cl ster de zona depende de y por tanto requiere un cl ster global Un cl ster global no contiene un cl ster de zona No puede configurar un cl ster de zona sin un cl ster global Un cl ster de zona tiene como m ximo un nodo de cl ster de zona en un equipo Un nodo de cl ster de zona sigue funcionando nicamente si tambi n lo hace el nodo de votaci n de cl ster global en el mismo equipo Si falla un nodo de votaci n de cl ster global en un equipo tambi n fallan todos los nodos de cl ster de zona de ese equipo Introducci n a la administraci n de Oracle Solaris Cluster Introducci n a la administraci n de Oracle Solaris Cluster 18 El entorno de alta disponibilidad Oracle Solaris Cluster garantiza que los usuarios finales puedan disponer de las aplicaciones fundamentales La tarea del administrador del sistema consiste en asegurarse de que la configuraci n de Oracle Solaris Cluster sea estable y operativa Antes de comenzar las tareas de administraci n familiar cese con el contenido de planificaci n que se proporciona en Oracle Solaris Cluster Software Installation Guide y en Oracle Solaris Cluster Concepts Guide Si desea obtener instrucciones sobre c mo crear un cl ster de zona consulte Configuraci n de un cl ster de zona de Oracle Solaris
526. software Oracle Solaris Cluster crea autom ticamente un grupo de dispositivos de discos b sicos para cada dispositivo de disco y de cinta del cl ster Sin embargo los grupos de dispositivos del cl ster permanecen fuera de l nea hasta que se acceda a dichos grupos como dispositivos globales Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 127 cl ster Administraci n de grupos de dispositivos TABLA 5 4 Mapa de tareas administrar grupos de dispositivos Tarea Actualizar el espacio de nombre los dispositivos globales sin un rearranque de reconfiguraci n con el comando cldevice populate Cambiar el tama o de un dispositivo lofi que se utiliza para el espacio de nombres de dispositivos globales Desplazar un espacio de nombre de dispositivos globales Agregar conjuntos de discos de Solaris Volume Manager y registrarlos como grupos de dispositivos mediante el comando metaset Agregar y registrar un grupo de dispositivos de discos b sicos con el comando cldevicegroup Agregar un grupo de dispositivos con nombre para ZFS con el comando cldevicegroup Agregar y registrar un nuevo grupo de discos como grupo de dispositivos con el m todo que se prefiera Eliminar grupos de dispositivos de Solaris Volume Manager de la configuraci n con los comandos metaset y metaclear Eliminar un nodo de todos los grupos de dispositivos con los comandos cldevicegroup m
527. spositivo de qu rum Eliminaci n del ltimo dispositivo de qu rum de un cl ster de un cl ster mediante clsetup para en la p gina 209 generar clquorum Reemplazar un dispositivo de qu rumde Sustituci n de un dispositivo de qu rum en la p gina 210 un cl ster mediante los procedimientos de agregar y quitar Modificar una lista de dispositivos de Modificaci n de una lista de nodos de dispositivo de qu rum qu rum mediante los procedimientosde en la pagina 211 agregar y quitar 194 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum TABLA 6 1 Lista de tareas administrar el qu rum Continuaci n Tarea Instrucciones Poner un dispositivo de qu rum en estado Colocaci n de un dispositivo de qu rum en estado de de mantenimiento mediante clsetup para mantenimiento en la p gina 214 generar clquorum Mientras se encuentra en estado de mantenimiento el dispositivo de qu rum no participa en las votaciones para establecer el qu rum Restablecer la configuraci n de qu ruma Procedimiento para sacar un dispositivo de qu rum del estado su estado predeterminado mediante de mantenimiento en la p gina 215 clsetup para generar clquorum Enumerar en una lista los dispositivos de Enumeraci n de una lista con la configuraci n de qu rum qu rum y los n meros de votos mediante enla p gina 217 el com
528. spositivos de almacenamiento Place the device group in maintenance state cldevicegroup disable dg schost 1 cldevicegroup offline dg schost 1 If needed manually import the disk set or disk group For Solaris Volume Manager metaset C take f s dg schost 1 For Veritas Volume Manager vxdg t import dgl Complete all necessary repair procedures Release ownership For Solaris Volume Manager metaset C release s dg schost 1 For Veritas Volume Manager vxdg deport dgl Bring the device group online cldevicegroup online dg schost 1 cldevicegroup enable dg schost 1 Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento 172 La instalaci n del software Oracle Solaris Cluster asigna reservas de SCSI autom ticamente a todos los dispositivos de almacenamiento Siga los procedimientos descritos a continuaci n para comprobar la configuraci n de los dispositivos y si es necesario para anular la configuraci n de un dispositivo Visualizaci n de la configuraci n del protocolo SCSI global predeterminado de todos los dispositivos de almacenamiento en la p gina 172 Visualizaci n del protocolo SCSI de un solo dispositivo de almacenamiento en la p gina 173 Modificaci n de la configuraci n del protocolo de protecci n global predeterminado para todos los dispositivos de almacenamiento en la p gina 174 Modificaci n del protocolo
529. st lofiadm a globaldevices phys schost newfs lofiadm globaldevices lt dev null 6 Inicie el nodo en modo de cluster El nuevo sistema de archivos se rellena con los dispositivos globales phys schost reboot 7 Migrealnodo todos los servicios que desee ejecutar en l Migraci n del espacio de nombre de dispositivos globales Puede crear un espacio de nombre en un dispositivo de archivo de bucle invertido lofi en lugar de crear uno para dispositivos globales en una partici n dedicada Esta funci n es til si se instala software de Oracle Solaris Cluster en sistemas que ya tienen instalado el sistema operativo Solaris 10 132 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos 4 Nota Se admite ZFS para sistemas de archivos root con una excepci n importante Si emplea una partici n dedicada del disco de arranque para el sistema de archivos de los dispositivos globales como sistema de archivos se debe usar s lo UFS El espacio de nombre de dispositivos globales necesita que el sistema de archivos proxy PxFS se ejecute en un sistema de archivos UES Sin embargo un sistema de archivos UFS para el espacio de nombre de dispositivos globales puede coexistir con un sistema de archivos ZFS para el sistema de archivos root y otros sistemas de archivos root por ejemplo var o home Asimismo si se utiliza un dispositivo de lofi pa
530. staban en curso durante la migraci n tras error vuelven a ejecutarse de forma transparente en el nuevo nodo primario Sin embargo las operaciones relacionadas con ioctl que estuviesen en curso durante el proceso de migraci n tras error no se podr n realizar Despu s de una migraci n tras error del sistema de archivos de cl ster de VxFS compruebe el estado del sistema de archivos de cl ster Los comandos administrativos ejecutados en el anterior primario antiguo antes de la migraci n tras error podr an necesitar correcciones Si desea obtener m s informaci n consulte la documentaci n de VxFS Administraci n de grupos de dispositivos A medida que cambien las necesidades del cl ster tal vez necesite agregar quitar o modificar los grupos de dispositivos de dicho cl ster Oracle Solaris Cluster ofrece una interfaz interactiva denominada clsetup apta para efectuar estas modificaciones La utilidad clsetup genera comandos cluster Los comandos generados se muestran en los ejemplos que figuran al final de algunos procedimientos En la tabla siguiente se enumeran tareas para administrar grupos de dispositivos adem s de v nculos a los correspondientes procedimientos de esta secci n A Precauci n No ejecute metaset s nombre_conjunto f t en un nodo del cl ster que se arranque fuera del cl ster si hay otros nodos que son miembros activos del cl ster y al menos uno de ellos es propietario del conjunto de discos Nota El
531. ster 3 3 Para obtener m s informaci n sobre la instalaci n consulte Oracle Solaris Cluster Software Installation Guide Software del administrador de Software Solaris Volume Manager o Veritas Volume Manager VxVM vol menes R _ Todos los nodos deben usar la misma versi n del administrador de vol menes Para obtener m s informaci n sobre la instalaci n consulte el Cap tulo 4 Configuraci n del software Solaris Volume Manager de Oracle Solaris Cluster Software Installation Guide y el Cap tulo 5 Instalaci n y configuraci n de Veritas Volume Manager de Oracle Solaris Cluster Software Installation Guide Software Sun StorageTek Si desea m s informaci n sobre c mo instalar el software consulte los Availability Suite manuales de instalaci n de su versi n del software Sun StorageTek Availability Suite m Documentaci n de Sun StorageTek Availability Suite 4 0 Sun StorageTek Availability Parches del software Sun Para obtener m s informaci n sobre los ltimos parches inicie sesi n en StorageTek Availability Suite My Oracle Support Ejemplo de configuraci n de grupos de dispositivos y de recursos Esta secci n describe c mo se configuran los grupos de dispositivos y los de recursos en una aplicaci n NFS Para obtener m s informaci n consulte Configuraci n de grupos de recursos de replicaciones en la p gina 380 y Configuraci n de grupos de recursos de aplicaciones e
532. ster de servidor de qu rum como se describe en Eliminaci n de un dispositivo de qu rum en la p gina 208 Precauci n Si el cl ster sigue utilizando este servidor de qu rum efectuar este procedimiento afectar negativamente al qu rum del cl ster Convi rtase en superusuario del host del servidor de qu rum Use el comando clquorumserver clear para limpiar el archivo de configuraci n clquorumserver clear c clustername 1 clusterID quorumserver y cnombre_cl ster El nombre del cluster que el servidor de qu rum utilizaba anteriormente como dispositivo de qu rum Puede obtener el nombre del cl ster si ejecuta cluster show en un nodo del cl ster 11D_cl ster ID del cl ster El ID del cl ster es un n mero hexadecimal de ocho d gitos Puede obtener el ID del cl ster si ejecuta cluster show en un nodo del cl ster servidor_qu rum Un identificador de uno o m s servidores de qu rum El servidor de qu rum se puede identificar mediante un n mero de puerto o un nombre de instancia Los nodos del cl ster usan el n mero del puerto para comunicarse con el servidor de qu rum El nombre de instancia aparece especificado en el archivo de configuraci n del servidor de qu rum etc scqsd scqsd conf Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de servidores de qu rum de Oracle Solaris Cluster y Fuerce el comando clquorumserver clear para limpiar la infor
533. ster de zona tambi n se pueden ejecutar dos comandos administrativos de Oracle Solaris Cluster cluster y clnode Sin embargo el mbito de estos comandos se limita al cl ster de zona donde se ejecute dicho comando Por ejemplo utilizar el comando cluster en el nodo de votaci n del cl ster global recupera toda la informaci n del cl ster global de votaci n y de todos los cl sters de zona Al utilizar el comando cluster en un cl ster de zona se recupera la informaci n de ese mismo cl ster de zona Si el comando clzonecluster se utiliza en un nodo de votaci n afecta a todos los cl sters de zona del cl ster global Los comandos de cl sters de zona tambi n afectan a todos los nodos del cl ster de zona aunque un nodo est inactivo al ejecutarse el comando Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restricciones de las funciones del sistema operativo Oracle Solaris Los cl sters de zona admiten la administraci n delegada de los recursos situados jer rquicamente bajo el control del administrador de grupos de recursos As los administradores de cl sters de zona pueden ver las dependencias de dichos cl sters de zona que superan los l mites de los cl sters de zona pero no modificarlas El administrador de un nodo de votaci n es el nico facultado para crear modificar o eliminar dependencias que superen los l mites de los cl sters de zona La lista siguiente contiene las ta
534. straci n que pueda provocar modificaciones en los dispositivos en los componentes de administraci n de vol menes o en la configuraci n de Oracle Solaris Cluster Al ejecutar el comando clzonecluster 1CL en el nodo de votaci n de cl ster global se lleva a cabo un conjunto de comprobaciones con el fin de validar la configuraci n necesaria para que un cl ster de zona funcione correctamente Si todas las comprobaciones son correctas clzonecluster verify devuelve al indicador de shell y el cl ster de zona se puede instalar con seguridad Si falla alguna de las comprobaciones clzonecluster verify informa sobre los nodos del cl ster global en los que la verificaci n no obtuvo un resultado correcto Si ejecuta clzonecluster verify respecto a m s de un nodo se emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos No se permite utilizar el subcomando verify dentro de los cl sters de zona Convi rtase en superusuario de un nodo de miembro activo en un cl ster global Siga todos los pasos de este procedimiento desde un nodo del cl ster global phys schost su Aseg rese de que dispone de las comprobaciones m s actuales Vaya a la ficha Parches y actualizaciones Patches amp Updates de My Oracle Support Mediante la b squeda avanzada seleccione Solaris Cluster como producto y especifique comprobar en el campo de descripci n para localizar los parches de Oracle Solaris Cluster que conte
535. t privado usa el formato clusternode lt id_nodo gt priv por ejemplo clusternode3 priv Cambie un nombre de host privado s lo si el nombre ya se utiliza en el dominio Precauci n No intente asignar direcciones IP a los nuevos nombres de host privados Las asigna el software de agrupaci n en cl ster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Cap tulo 9 Administraci n del cl ster 275 Informaci n general sobre la administraci n del cl ster 276 En todos los nodos del cl ster global inhabilite cualquier recurso de servicio de datos u otras aplicaciones que puedan almacenar en cach nombres de host privados phys schost clresource disable resourcel resource2 Incluya la informacion siguiente en las aplicaciones que inhabilite Los servicios de HA DNS y HA NES si estan configurados Cualquier aplicaci n configurada de forma personalizada para utilizar el nombre de host privado Cualquier aplicaci n que los clientes utilicen en la interconexi n privada Para obtener informaci n sobre el uso del comando cl resource consulte la p gina de comando man cl resource 1CL y Oracle Solaris Cluster Data Services Planning and
536. t refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos En todos los nodos del cl ster inhabilite cualquier recurso de servicio de datos u otras aplicaciones que puedan almacenar en cach nombres de host privados phys schost clresource disable resource Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster Incluya la informaci n siguiente en las aplicaciones que inhabilite Los servicios de HA DNS y HA NES si est n configurados Cualquier aplicaci n configurada de forma personalizada para utilizar el nombre de host privado Cualquier aplicaci n que los clientes utilicen en la interconexi n privada Para obtener informaci n sobre el uso del comando cl resource consulte la pagina de comando man clresource 1CL y Oracle Solaris Cluster Data Services Planning and Administration Guide Si el archivo de configuraci n NTP hace referencia al nombre de host privado que est cambiando desactive el daemon del protocolo NTP en todos los nodos del cluster Utilice el comando svcadm para detener el daemon del protocolo NTP Consulte la pagina de comando man svc
537. t s dg schost 1 d h phys schost 2 Verify removal of the node phys schost 1 cldevicegroup list v dg schost 1 Cluster Device Groups Device Group Status Device Group Name Primary Secondary Status dg schost 1 phys schost 1 Online Creacion de un nuevo grupo de discos al encapsular discos Veritas Volume Manager Nota Este procedimiento s lo es v lido para encapsular discos Si esta inicializando discos siga el procedimiento Creaci n de un nuevo grupo de discos al inicializar discos Veritas Volume Manager en la p gina 141 Puede convertir discos que no sean root en grupos de dispositivos de Oracle Solaris Cluster si los encapsula como grupos de discos de VxVM y a continuaci n registra los grupos de discos como grupos de dispositivos de Oracle Solaris Cluster La encapsulaci n de discos s lo se admite durante la creaci n de un grupo de discos de VxVM Tras crear un grupo de discos de VxVM y registrarlo como grupo de dispositivos de Oracle Solaris Cluster s lo se deben agregar al grupo de discos los discos que puedan inicializarse Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 145 cl ster Administraci n de grupos de dispositivos 146 Si usa VxVM para configurar grupos de discos compartidos para Oracle RAC use la funci n de cl ster de VxVM como se describe en la Gu a de referencia del administrador de Veritas Volum
538. t file system cd a ufsrestore rvf dev rmt 0 rm restoresymtable Create an empty install db file touch a etc vx reconfig d state d install db Edit etc system on the temporary file system and remove or comment out the following entries rootdev pseudo vxio0 0 0 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Restauraci n de los archivos del cl ster V ase tambi n set vxio vol_rootdev_is volume 1 Edit etc vfstab on the temporary file system Example Change from dev vx dsk rootdg rootvol dev vx rdsk rootdg rootvol ufs 1 no Change to dev dsk c t0d0s dev rdsk cotodoso ufs 1 no Unmount the temporary file system then check the file system cd umount a fsck dev rdsk cOt0d0sd Install a new boot block usr sbin installboot usr platform uname i lib fs ufs bootblk dev rdsk c0t0d0s0 Reboot reboot Update the disk ID cldevice repair dev rdsk cO0t0dQ Encapsulate the disk vxinstall Choose to encapsulate the root disk If a conflict in minor number occurs reminor the rootdg disk group umount global devices node nodeid vxdg reminor rootdg 100 shutdown g0 i6 y Para obtener instrucciones sobre c mo duplicar el disco ra z encapsulado consulte Oracle Solaris Cluster Software Installation Guide Cap tulo 12 Copias de seguridad y restauraciones de clusters 363 364
539. t set physical bge0 clzc sczone node net gt end clzc sczone node gt end clzc sczone gt add node clzc sczone node gt set physical host phys cluster 2 clzc sczone node gt set hostname hostname2 clzc sczone node gt add net clzc sczone node net gt set address hostname2 clzc sczone node net gt set physical bge0 clzc sczone node net gt end clzc sczone node gt end Para obtener instrucciones detalladas sobre c mo configurar el nodo consulte Configuraci n de un cl ster de zona de Oracle Solaris Cluster Software Installation Guide Instale y configure el software en el nuevo nodo del cl ster Puede utilizar cluster create o software JumpStart para completar la instalaci n y la configuraci n del nuevo nodo tal y como se describe en Oracle Solaris Cluster Software Installation Guide Adici n de nodos de un cl ster global a la lista de nodos autorizados El ejemplo siguiente muestra c mo se agrega un nodo denominado phys schost 3 a la lista de nodos autorizados de un cl ster ya existente Become superuser and execute the clsetup utility phys schost clsetup Select New nodes gt Specify the name of a machine which may add itself Answer the questions when prompted Verify that the command completed successfully claccess allow h phys schost 3 Command completed successfully Select Prevent any new machines from being added to the cluster Quit the clsetup New Nodes Menu and Main Menu Install the cluste
540. t word TAB lists possible command completions Anywhere else TAB lists the possible completions of a device filename ESC at any time exits grub edit gt kernel platform i86pc multiboot x Cap tulo 3 Cierre y arranque de un cl ster 85 Cierre y arranque de un solo nodo de un cl ster 86 Ejemplo 3 14 d Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los par metros de arranque La pantalla muestra el comando editado GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot x module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu e Escriba b para arrancar el nodo en un modo que no sea de cl ster Nota Este cambio en el comando del par metro de arranque del n cleo no se conserva tras arrancar el sistema La pr xima vez que rearranque el nodo lo har en modo de cl ster Para arrancarlo en el modo que no es de cl ster realice estos pasos de nuevo para agregar la opci n x al comando del par metro de arranque del n cleo SPARC Arranque de un nodo del cl ster global en un modo que no sea de cl ster El ejemplo siguiente muestra la salida de
541. taci n Compruebe si ha configurado estas propiedades correctamente clnode show node Para el nodo que especifique el comando clnode imprime las propiedades establecidas y los valores definidos para dichas propiedades Si no configura las propiedades de control de la CPU con clnode asumen el valor predeterminado Configure la funci n de control de la CPU clresourcegroup create p RG_SLM_TYPE automated p RG_SLM_CPU_SHARES value resource_group_name pRG_SLM_TYPE automated Permite controlar el uso de la CPU y automatiza algunos pasos para configurar el sistema operativo Oracle Solaris con el fin de administrar recursos del sistema pRG_SLM_CPU_SHARES valor Especifica el n mero de recursos compartidos de CPU asignados al proyecto del grupo espec fico de recursos project cpu shares y determina el n mero de recursos compartidos de CPU asignados al nodo sin votaci n de cl ster global zone cpu_shares nombre_grupo_recursos Especifica el nombre del grupo de recursos Este paso crea un grupo de recursos Si lo desea utilice el comando clresourcegroup set para modificar un grupo de recursos No puede definir RG_SLM_TYPE como automated en un nodo sin votaci n si otra agrupaci n que no sea la predeterminada est en la configuraci n de la zona o si la zona est vinculada a otra agrupaci n que no sea la predeterminada Consulte las p ginas de comando man zonecfg 1M y poolbind 1M para obtener m s informaci n sobr
542. tados Nota Si el dispositivo que va a quitar es el ltimo dispositivo de qu rum del cl ster consulte el procedimiento Eliminaci n del ltimo dispositivo de qu rum de un cl ster en la p gina 209 phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Determine el dispositivo de qu rum que se va a eliminar clquorum list v Ejecute la utilidad clsetup 1CL clsetup Aparece el men principal Escriba el n mero correspondiente a la opci n de qu rum Escriba el n mero correspondiente a la opci n de quitar un dispositivo de qu rum Responda a las preguntas que aparecen durante el proceso de eliminaci n Salga de clsetup Compruebe que se haya eliminado el dispositivo de qu rum clquorum list v Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum Ejemplo 6 5 Become superuser o cluster node Determine the quo clquorum list v Start the clsetup clsetup Select Quorum gt Rem Answ
543. tall instructions clnode Uninstall failed Falta la secuencia de comandos de desinstalacion Sino ha utilizado el programa installer para instalar o actualizar el software Sun Cluster u Oracle Solaris Cluster que ahora quiere eliminar no habr ninguna secuencia de comandos de desinstalaci n disponible para esta versi n del software En su lugar siga los pasos indicados a continuaci n para desinstalar el software C mo desinstalar el software Sun Cluster 3 1 y 3 2 sin una secuencia de comandos de desinstalaci n Convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster modify Acceda a un directorio que no est asociado con ning n paquete de Sun Cluster cd directory Desinstale el software de Sun Cluster del nodo scinstall r Cambie el nombre del archivo productregistry para permitir la posible reinstalaci n del software en el futuro mv var sadm install productregistry var sadm install productregistry sav Creaci n configuraci n y administraci n de MIB de eventos de SNMP de Oracle Solaris Cluster Esta secci n describe c mo crear configurar y administrar la base de informaci n de administraci n MIB del evento del protocolo SNMP Esta secci n tambi n describe c mo habilitar inhabilitar y cambiar la MIB de eventos de SNMP de Oracle Solaris Cluster El software Oracle Solaris Cluster admite actualmente una MIB la MIB de eventos El software del admi
544. tareas administrativas y los procedimientos asociados Las tareas administrativas del cl ster suelen efectuarse en la zona global Para administrar un cl ster de zona al menos un equipo que almacenar como host el cl ster de zona debe estar activado en modo de cl ster No todos los nodos cl ster de zona deben estar activados y en funcionamiento Oracle Solaris Cluster reproduce cualquier cambio de configuraci n si el nodo que est fuera del cl ster se vuelve a unir a ste Nota De manera predeterminada la administraci n de energ a est deshabilitada para que no interfiera con el cl ster Si habilita la administraci n de energ a en un cl ster de un solo nodo el cl ster continuar ejecut ndose pero podr a no estar disponible durante unos segundos La funci n de administraci n de energ a intenta cerrar el nodo pero no lo consigue En este capitulo phys schost refleja una solicitud de cl ster global El indicador de solicitud de shell interactivo de clzonecluster es clzc schost gt 263 Informaci n general sobre la administraci n del cl ster TABLA 9 1 Lista de tareas administrar el cl ster Tarea Agregar o eliminar un nodo de un cl ster Cambiar el nombre del cl ster Enumerar los ID de nodos y sus nombres de nodo correspondientes Permitir o denegar que se agreguen nodos nuevos al cl ster Cambiar la hora de un cl ster mediante el protocolo NTP Cerrar un nodo con el indicador ok de la
545. te una reconfiguraci n del cl ster Puede aumentar el tiempo de espera del qu rum a un valor superior siguiendo las instrucciones en C mo configurar dispositivos del qu rum de Oracle Solaris Cluster Software Installation Guide En lugar de aumentar el valor de tiempo de espera tambi n se puede cambiar a otro dispositivo del qu rum Obtendr informaci n adicional sobre c mo solucionar problemas en C mo configurar dispositivos del qu rum de Oracle Solaris Cluster Software Installation Guide Nota En el caso de Oracle Real Application Clusters Oracle RAC no cambie el tiempo de espera predeterminado del qu rum de 25 segundos En determinados casos en que una parte de la partici n del cl ster cree que la otra est inactiva cerebro dividido un tiempo de espera superior puede hacer que falle el proceso de migraci n tras error de Oracle RAC VIP debido a la finalizaci n del tiempo de espera de recursos VIP Si el dispositivo del qu rum que se utiliza no es adecuado para un tiempo de espera predeterminado de 25 segundos utilice otro dispositivo Administraci n de servidores de qu rum de Oracle Solaris Cluster El servidor de qu rum de Oracle Solaris Cluster ofrece un dispositivo de qu rum que no es un dispositivo de almacenamiento compartido Esta secci n presenta los procedimientos siguientes para administrar servidores de qu rum de Oracle Solaris Cluster Inicio y detenci n del software del servidor de
546. ted Rights Server Path Add Delete Nombre corto de la funci n Versi n larga del nombre Descripci n de la funci n UID para la funci n incrementado de forma autom tica Los shells de perfil disponibles para las funciones los shells C Bourne y Korn del administrador Realiza una lista de correo para los usuarios asignados a esta funci n Asigna o elimina los perfiles de derechos de una funci n El sistema no impide escribir varias apariciones del mismo comando Los atributos asignados a la primera aparici n de un comando en un perfil de derechos tienen preferencia y se ignoran todas las siguientes apariciones Use las flechas Arriba y Abajo para cambiar el orden Servidor para el directorio de inicio Ruta del directorio de inicio Agrega usuarios que puedan asumir esta funci n Deben estar en el mismo mbito Elimina los usuarios asignados a esta funci n Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster Nota Este perfil se debe colocar en primer lugar en la lista de perfiles asignados a la funci n Agregue los usuarios que necesiten utilizar las funciones de Oracle Solaris Cluster Manager o los comandos de Oracle Solaris Cluster a la funci n reci n creada Use el comando useradd 1M para agregar una cuenta de usuario al sistema La opc
547. tem cluster cl_eventlog default rpc_pmf svc system cluster rpc_pmf default rpc_fed svc system cluster rpc_fed default Capitulo1 Introducci n a la administraci n de Oracle Solaris Cluster 19 Herramientas de administraci n TABLA 1 1 Oracle Solaris ClusterServices Continuaci n Servicios de Oracle Solaris Cluster FMRI rgm svc system cluster rgm default scdpm svc system cluster scdpm default cl_ccra svc system cluster cl_ccra default scsymon_srv svc system cluster scsymon_srv default spm svc system cluster spm default cl_svc_cluster_milestone svc system cluster cl_svc_cluster_milestone default cl_svc_enable svc system cluster cl_svc_enable default network multipathing svc system cluster network multipathing Herramientas de administracion 20 Las tareas administrativas de una configuraci n de Oracle Solaris Cluster se pueden efectuar en una interfaz gr fica de usuario GUI o mediante la l nea de comandos La secci n siguiente ofrece informaci n general sobre las herramientas de la GUI y la l nea de comandos Interfaz gr fica de usuario El software de Oracle Solaris Cluster admite herramientas de GUI para realizar diversas tareas administrativas en los cl steres Dichas herramientas de la interfaz gr fica o GUI son Oracle Solaris Cluster Manager si emplea software Oracle Solaris Cluster en un sistema basado en SPARC Sun Management Center Consulte el Cap tulo 13 Administraci n de Oracle Sol
548. tema operativo Oracle Solaris para escribir datos en un volumen compartido por ejemplo Oracle 9SIRAC y Oracle Parallel Server Para obtener m s informaci n sobre c mo usar una replicaci n de datos basada en host entre dos cl steres consulte Oracle Solaris Cluster Geographic Edition Data Replication Guide for Sun StorageTek Availability Suite Para ver un ejemplo de replicaci n basada en host que no use Oracle Solaris Cluster Geographic Edition consulte el A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite en la p gina 375 La replicaci n de datos basada en almacenamiento utiliza el software del controlador de almacenamiento para sacar el trabajo de la replicaci n de datos de los nodos del cl ster y moverlo al dispositivo de almacenamiento Este software libera capacidad de procesamiento del nodo para atender las solicitudes del cl ster Entre los ejemplos de software basado en almacenamiento que puede replicar datos dentro del cl ster o entre cl sters figuran Hitachi TrueCopy Hitachi Universal Replicator y EMC SRDF La replicaci n de datos basada en almacenamiento puede ser especialmente importante en configuraciones de cl sters de campus y puede simplificar la infraestructura necesaria Para obtener m s informaci n sobre el uso de la replicaci n de datos basada en almacenamiento en un entorno de cl ster de campus consulte Uso de replicaci n de datos basada en almace
549. tenimiento y se comprueban los resultados La salida de clnode status muestra los Node votes para que phys schost 1 sea 0 y el estado sea Offline El Quorum Summary debe mostrar tambi n el Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n del cl ster V ase tambi n n mero de votos reducido Seg n la configuraci n la salida de Quorum Votes by Device deber indicar que algunos dispositivos del disco tambi n se encuentran fuera de l nea On the node to be put into maintenance state phys schost 1 clnode evacuate phys schost 1 phys schost 1 shutdown g0 y i0 On another node in the cluster phys schost 2 clquorum disable phys schost 1 phys schost 2 clquorum status phys schost 1 Quorum Votes by Node Node Name Present Possible Status phys schost 1 0 0 Offline phys schost 2 1 T Online phys schost 3 I 1 Online Para volver a poner en linea un nodo consulte Procedimiento para sacar un nodo del estado de mantenimiento en la p gina 281 Procedimiento para sacar un nodo del estado de mantenimiento Complete el procedimiento descrito a continuaci n para volver a poner en l nea un nodo del cl ster global y restablecer el valor predeterminado en el n mero de votos de qu rum En los nodos del cl ster el n mero de qu rum predeterminado es uno En los dispositivos de qu rum el n mero de qu rum predeterminado es N 1
550. ter 96 Pr cticas recomendadas al usar la replicaci n de datos basada en almacenamiento Cuando configure los grupos de dispositivos que usan Hitachi TrueCopy o Hitachi Universal Replicator para la replicaci n de datos basada en almacenamiento siga estas pr cticas Utilice una replicaci n sincr nica para evitar la posibilidad de perder datos si falla la ubicaci n principal Debe haber una relaci n un voca entre el grupo de dispositivos globales de Oracle Solaris Cluster y el grupo de replicaciones de TrueCopy definidos en el archivo de configuraci n horcm De este modo los dos grupos se mueven de un nodo a otro como una sola unidad Los volumenes de sistema de archivos globales y los del sistema de archivos de migraci n tras error no se pueden mezclar en el mismo grupo de dispositivos replicados porque se controlan de forma distinta Los sistemas de archivos globales est n controlados por un sistema de configuraci n de dispositivos mientras que los vol menes de sistemas de archivos de migraci n tras error lo est n por HAS El primario de cada uno podr a ser un nodo diferente lo que podr a provocar conflictos sobre el nodo en el que deber a estar la replicaci n primaria Todas las instancias de RAID Manager deben estar siempre activadas y en funcionamiento Cuando utilice el software EMC SRDF para replicaci n de datos basada en almacenamiento use dispositivos din micos en lugar de est ticos Los disposit
551. ter completamente establecida Puede seguir este procedimiento para desinstalar el software desde el ltimo nodo de un cl ster Cap tulo 9 Administraci n del cl ster 283 Informaci n general sobre la administraci n del cl ster 284 Nota No siga este procedimiento para desinstalar el software Oracle Solaris Cluster desde un nodo que todav a no se haya unido al cl ster o que a n est en modo de instalaci n En lugar de eso vaya a C mo anular la configuraci n del software Oracle Solaris Cluster para solucionar problemas de instalaci n en Oracle Solaris Cluster Software Installation Guide phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Compruebe que haya completado correctamente todas las tareas de los requisitos previos del mapa de tareas para eliminar un nodo del cl ster Consulte la Tabla 8 2 Nota Compruebe que haya eliminado el nodo de la configuraci n del cl ster mediante clnode remove antes de continuar con este procedimiento Convi rtase en superusuario en un miembro activo del cl ster global que no sea el nodo del cl ster global que va a desinstalar Realice este procedimiento desde un nodo del cl ster global E
552. ter y RBAC 57 Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster 58 Inicie la herramienta Administrative Roles Para ejecutar la herramienta Administrative Roles inicie Solaris Management Console como se describe en How to Assume a Role in the Solaris Management Console de System Administration Guide Security Services Abra User Tool Collection y haga clic en el icono de funciones administrativas Inicie el asistente Add Administrative Role Agregar funciones administrativas para agregar una funci n administrativa Seleccione Add Administrative Role Agregar funci n administrativa en el men Action Acci n para iniciar el asistente Add Administrative Role Agregar funciones administrativas para la configuraci n de funciones Configure una funci n que tenga asignado el perfil de derechos de administraci n del cl ster Utilice los botones Siguiente y Atr s para desplazarse entre los cuadros de di logo El bot n Siguiente no se activa mientras no se hayan completado los campos obligatorios El ltimo cuadro de di logo permite revisar los datos introducidos y retroceder para cambiarlos o hacer clic en Finish Finalizar para guardar la nueva funci n La lista siguiente resume los campos y botones del cuadro de di logo Role Name Full Name Description Role ID Number Role Shell Create a role mailing list Available Rights Gran
553. tiene derechos para administrar el cl ster Algunos perfiles de derechos de RBAC est n incluidos en el software Oracle Solaris Cluster Puede asignar estos perfiles de derechos a los usuarios o a las funciones para proporcionar a los usuarios niveles diferentes de acceso a Oracle Solaris Cluster Para obtener m s informaci n sobre c mo configurar y administrar RBAC para el software Oracle Solaris Cluster consulte el Cap tulo 2 Oracle Solaris Cluster y RBAC Cap tulo 13 Administraci n de Oracle Solaris Cluster con las interfaces gr ficas de usuario 367 Configuraci n de Oracle Solaris Cluster Manager 368 v Uso de Common Agent Container para cambiar los n meros de puerto de los agentes de servicios o de administraci n Si los n meros de puerto predeterminados para los servicios de Common Agent Container presentan conflictos con otros procesos de ejecuci n puede usar el comando cacaoadm en todos los nodos del cl ster para cambiar el n mero de puerto del agente de servicio de administraci n causante del conflicto Detenga el daemon de administraci n Common Agent Container en todos los nodos del cl ster opt bin cacaoadm stop Detenga Sun Java Web Console usr sbin smcwebserver stop Recupere el n mero de puerto que el servicio de Common Agent Container usa con el subcomando get param opt bin cacaoadm get param parameterName Puede usar el comando cacaoadm para cambiar los n meros de puerto de
554. tiva conmute las direcciones IP del adaptador que se va a quitar a otro adaptador presente en el grupo de varias rutas con el comando if_mpadm 1M Siintenta eliminar una tarjeta de interfaz de red p blica sin haberla inhabilitado como interfaz de red p blica activa Oracle Solaris Cluster rechaza la operaci n e identifica la interfaz que habr a sido afectada por la operaci n 244 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de redes p blicas Precauci n En el caso de grupos de varias rutas con dos adaptadores si el adaptador de red restante sufre un error mientras se elimina la reconfiguraci n din mica en el adaptador de red inhabilitado la disponibilidad se ver afectada El adaptador que se conserva no tiene ning n elemento al que migrar tras error mientras dure la operaci n de reconfiguraci n din mica Aplique los procedimientos siguientes en el orden indicado al realizar operaciones de reconfiguraci n din mica en interfaces de redes p blicas TABLA 7 4 Mapa de tareas reconfiguraci n din mica con interfaces de redes p blicas Tarea Instrucciones 1 Conmutar las direcciones IP del adaptador que se va a eliminar a otro adaptador del grupo de varias rutas mediante if_mpadm 2 Eliminar el adaptador del grupo de varias rutas mediante el comando ifconfig 3 Efectuar la operaci n de reconfiguraci n din mica en la interfaz de red p
555. tivo de NAS por un disco compartido Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de dispositivos de qu rum phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Configure un nuevo dispositivo de qu rum Primero debe agregarse un nuevo dispositivo de qu rum a la configuraci n para que ocupe el lugar del anterior Consulte Adici n de un dispositivo de qu rum en la p gina 196 para agregar un nuevo dispositivo de qu rum al cl ster Quite el dispositivo que va a sustituir como dispositivo de qu rum Consulte Eliminaci n de un dispositivo de qu rum en la p gina 208 para quitar el antiguo dispositivo de qu rum de la configuraci n Si el dispositivo de qu rum es un disco que ha tenido un error sustituya el disco Consulte los procedimientos de hardware del recept culo para el disco en Oracle Solaris Cluster 3 3 Hardware Administration Manual Mantenimiento de dispositivos de qu rum Esta secci n explica los procedimientos para mantener dispositivos de qu rum Modificaci n de una lista de nodos de dispositivo de qu rum en la p gina 211 Colocaci n d
556. to siguiente en el archivo etc vfstab del nodo nodeC El texto debe estar en una sola l nea dev vx dsk devgrp vol01 dev vx rdsk devgrp vol01 global mountpoint ufs 3 no global logging En el nodo nodeC cree un volumen para la informaci n del sistema de archivos utilizada por el servicio de datos de Oracle Solaris Cluster HA para NFS nodeC vxassist g devgrp make vol05 120m diskl El volumen 5 vo105 contiene la informaci n del sistema de archivos utilizada por el servicio de datos Oracle Solaris Cluster HA para NES En el nodo nodeC vuelva a sincronizar el grupo de dispositivos con el software Oracle Solaris Cluster nodeC cldevicegroup sync devgrp En el nodo nodeC cree el sistema de archivos para el vol05 nodeC newfs dev vx rdsk devgrp vol05 En el nodo nodeC cree un punto de montaje para el vol 05 El ejemplo siguiente crea el punto de montaje global etc nodeC mkdir global etc En el nodo nodeC configure el vol 5 para que se monte autom ticamente en el punto de montaje Agregue o sustituya el texto siguiente en el archivo etc vfstab del nodo nodeC El texto debe estar en una sola linea dev vx dsk devgrp vol05 dev vx rdsk devgrp vol05 Y global etc ufs 3 yes global logging Monte el vo105 en el nodo nodeC nodeC mount global etc Haga que los sistemas remotos puedan tener acceso al vol05 a Cree un directorio con el nombre global etc SUNW nfs en el nodo nodec nodeC mkdir p global etc SUNW
557. tos conmutaci n de afinidad 380 realizar 410 412 conmutadores de transporte agregar 230 233 conmutar nodo primario de grupo de dispositivos 169 170 conmutar a nodo primario de grupo de dispositivos 169 170 consola de administraci n 22 consolas conectar a 25 conexiones seguras 27 control de acceso basado en funciones Ver RBAC convenci n de asignaci n de nombre dispositivos de disco b sicos 179 grupos de recursos de replicaciones 380 copia de seguridad cl ster 23 crear nuevos grupos de discos 141 D desinstalar archivo de dispositivo de lofi 286 software de Oracle Solaris Cluster 283 detener cl ster de zona 69 cl ster global 69 nodos 73 87 nodos de cl ster de zona 73 87 nodos de cl ster global 73 87 direcciones IP a adir a un servicio de nombres para zonas de direcciones IP exclusivas 253 disco de SCSI compartido admitido como dispositivo del qu rum 196 dispositivos globales 97 192 reconfiguraci n din mica 98 100 dispositivos de disco b sicos convenciones de asignaci n de nombre 179 416 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A ndice dispositivos de qu rum agregar 197 dispositivos de qu rum de almacenamiento conectados a red 201 dispositivos de qu rum de disco compartido con conexi n directa 198 dispositivos de qu rum de servidor de qu rum 204 eliminar 195 enumerar configuraci n en una lista 217 estado de mante
558. traci n Para administrar el cl ster activo puede optar por utilizar una estaci n de trabajo dedicada o una estaci n de trabajo conectada a trav s de una red de administraci n como consola de administraci n En la consola de administraci n suelen instalarse y ejecutarse las herramientas del panel de control del cl ster y la GUI Para obtener m s informaci n sobre el panel de control del cl ster consulte Inicio de sesi n remota en el cl ster en la p gina 25 Si necesita instrucciones sobre c mo instalar el m dulo del panel de control del cl ster para las Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Preparaci n para administrar el cl ster herramientas Sun Management Center y la GUI de Oracle Solaris Cluster Manager consulte Oracle Solaris Cluster Software Installation Guide La consola de administraci n no es un nodo del cl ster La consola de administraci n se utiliza para disponer de acceso remoto a los nodos del cl ster ya sea a trav s de la red p blica o mediante un concentrador de terminales basado en red Si el cl ster SPARC consta de un servidor Sun Enterprise 10000 de Oracle debe iniciar sesi n en el procesador de servicios del sistema desde la consola de administraci n Establezca la conexi n con el comando netcon El m todo predeterminado para que netcon se conecte con un dominio de Sun Enterprise 10000 es trav s de la interfaz de red Si no se tiene
559. traci n 20 herramienta de administraci n de GUI 365 373 Oracle Solaris Cluster Manager 365 Sun Management Center 366 herramienta de administraci n de l nea de comandos 20 herramienta User Accounts descripci n 61 Hitachi TrueCopy administrar 101 112 Mayo de 2011 Revisi n A ndice Hitachi TrueCopy Continuaci n comprobar configuraci n 106 107 configurar dispositivos de DID 104 106 configurar grupo de replicaciones 102 104 ejemplo de configuraci n 107 112 pr cticas recomendadas 96 requisitos 94 restricciones 94 hosts agregar y eliminar SNMP 290 291 l imprimir rutas de disco err neas 188 informaci n de DID actualizar manualmente 188 189 informaci n de versi n 28 29 informaci n general qu rum 193 219 inhabilitar cables de transporte 237 iniciar cl ster de zona 67 69 cl ster global 67 69 nodos 73 87 nodos de cl ster global 73 87 Oracle Solaris Cluster Manager 370 inicio de sesi n remoto 25 inicio de sesi n remoto 25 instant nea captura 377 instant nea de un momento determinado definici n 377 ejecutar 406 407 instant neas Ver replicaci n basada en almacenamiento interconexiones de cl sters administrar 227 245 comprobar estado 229 reconfiguraci n din mica 229 IPMP administraci n 242 estado 35 grupos en zonas de direcciones IP exclusivas configurar 253 K kernel drv archivo md conf 136 L l mites de carga configurar en nodos 293 294
560. traci n de grupos de dispositivos Node List phys schost 2 phys schost 3 preferenced yes numsecondaries 1 diskset names dg schost 1 v Conmutaci n al nodo primario de un grupo de Ejemplo 5 37 dispositivos Este procedimiento tambi n es v lido para iniciar poner en l nea un grupo de dispositivos inactivo Tambi n puede poner en l nea un grupo de dispositivos inactivo o conmutar el nodo primario de un grupo de dispositivos mediante la GUI de Oracle Solaris Cluster Manager Consulte la ayuda en l nea de Oracle Solaris Cluster Manager para obtener m s informaci n phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos Convi rtase en superusuario o asuma un perfil que proporcione la autorizaci n de RBAC solaris cluster modify en todos los nodos del cl ster Use cldevicegroup switch para conmutar el nodo primario del grupo de dispositivos cldevicegroup switch n nodename devicegroup nnombre_nodo Especifica el nombre del nodo al que conmutar Este nodo se convierte en el nuevo nodo primario grupo_dispositivos Especifica el grupo de dispositivos que se conmuta Compruebe que el grupo de dispositivos se haya conmutado al nuevo nod
561. traci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Identifique los dispositivos que desee usar y anule la configuraci n de cualquier grupo de dispositivos predefinido Los comandos siguientes sirven para eliminar los grupos de dispositivos predefinidos de d7 y d8 paris 1 cldevicegroup disable dsk d7 dsk d8 paris 1 cldevicegroup offline dsk d7 dsk d8 paris 1 cldevicegroup delete dsk d7 dsk d8 Cree el grupo de dispositivos de disco b sico con los dispositivos deseados El comando siguiente crea un grupo de dispositivos globales rawdg que contiene d7 y d8 paris 1 cldevicegroup create n phys paris 1 phys paris 2 t rawdisk d d7 d8 rawdg paris 14 usr cluster lib dcs cldg show rawdg d d7 rawdg paris 14 usr cluster lib dcs cldg show rawdg d d8 rawdg Adici n y registro de un grupo de dispositivos replicado ZFS Para replicar ZFS debe crear un grupo de dispositivos con un nombre y hacer que figuren en una lista los discos que pertenecen a zpool Un dispositivo s lo puede pertenecer a un grupo de dispositivos a la vez por eso si ya tiene un grupo de dispositivos de Oracle Solaris Cluster que contiene el dispositivo debe eliminar este grupo antes de agregar el dispositivo al nuevo grupo de dispositivos de ZFS El nombre del grupo de dispositivos de Oracle Solaris Cluster que ha creado Solaris Volume Manager Veritas Volume Manager o disco b sico debe
562. tras error para replicaci n de datos 413 ndice aplicaciones de migraci n tras error para replicaci n de datos Continuaci n administrar 410 412 conmutaci n de afinidad 380 directrices administraci n de migraci n tras error 383 grupos de recursos 381 aplicaciones escalables para replicaci n de datos 382 383 aplicar parche que no sea de reinicio 330 parches 321 un parche que no es de reinicio a un cl ster de zona 321 aplicar parches en nodos sin votaci n de cl ster global 324 archivo etc inet hosts configurar en zonas de direcciones IP exclusivas 253 archivo etc nsswitch conf modificaciones en las zonas no globales 252 archivo etc vfstab 50 agregar puntos de montaje 179 comprobar la configuraci n 180 archivo var adm messages 87 archivo hosts configurar en zonas de direcciones IP exclusivas 253 archivo lofi desinstalar 286 archivo md tab 23 archivo nsswitch conf modificaciones en las zonas no globales 252 archivo ntp conf cluster 274 archivo vfstab agregar puntos de montaje 179 comprobar la configuraci n 180 archivos etc vfstab 50 md conf 136 md tab 23 ntp conf cluster 274 restaurar de forma interactiva 350 arrancar cl ster de zona 63 87 cl ster global 63 87 modo que no sea de cl ster 84 414 Gu a de administraci n del sistema de Oracle Solaris Cluster arrancar Continuaci n nodos 73 87 nodos de cl ster de zona 73 87 nodos de cl ster global 73 8
563. tras tareas del cl ster de zona Tarea Mover la ruta de zona a una ruta nueva Preparar el cl ster de zona para que ejecute aplicaciones Clonar un cl ster de zona Eliminar un cl ster de zona Eliminar un sistema de archivos de un cl ster de zona Eliminar un dispositivo de almacenamiento desde un cl ster de zona Solucionar el problema de la desinstalaci n de un nodo Crear configurar y administrar la MIB de eventos SNMP de Oracle Solaris Cluster Instrucciones clzonecluster move f ruta_zona nombre_cl ster_zona clzonecluster ready n nombre_nodo nombre_cl ster_zona clzonecluster clone Z origen_nombre_cl ster_zona m m todo_copia nombre_cluster_zona Detenga el cluster de zona de origen antes de usar el subcomando clone El cluster de zona de destino ya debe estar configurado Eliminaci n de un cl ster de zona en la pagina 296 Eliminaci n de un sistema de archivos desde un cl ster de zona en la p gina 297 Eliminaci n de un dispositivo de almacenamiento desde un cl ster de zona en la p gina 300 Soluci n de problemas de la desinstalaci n de nodos en la p gina 286 Creaci n configuraci n y administraci n de MIB de eventos de SNMP de Oracle Solaris Cluster en la p gina 287 v Eliminaci n de un cl ster de zona Puede borrar un cl ster de zona espec fico o usar un comod n para eliminar todos los cl sters de zona configurados en el cl ster globa
564. tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 125 cl ster Informaci n general sobre la administraci n de sistemas de archivos de cl sters 126 Asimismo si se utiliza un dispositivo de lofi para alojar el espacio de nombre de dispositivos globales no hay l mites en el uso de ZFS para sistemas de archivos root Directrices para admitir VxFS Las siguientes funciones de VxFS no son compatibles con un sistema de archivos de cl ster de Oracle Solaris Cluster Sin embargo s son compatibles en un sistema de archivos local E S r pida Instant neas Puntos de control de almacenamiento Opciones de montaje espec ficas de VxFS m convosync Convertir O_SYNC m mincache qlog delaylog tmplog Sistema de archivos de cl ster de Veritas requiere VxV M funci n de cl ster y Veritas Cluster Server La funci n de cl ster de VxVM no es compatible con los sistemas basados en x86 Se pueden usar notificaciones de la memoria cach pero s lo surten efecto en el nodo concreto Todas las dem s funciones y opciones de VxFS compatibles con un sistema de archivos de cl ster tambi n son compatibles con el software Oracle Solaris Cluster Consulte la documentaci n de VxFS para obtener m s informaci n sobre las opciones de VxFS que se admiten en una configuraci n de cl ster Las directrices siguientes sobre el uso de VxFS para crear sistemas de archivos d
565. u nombre de nodo a la lista de nodos autorizados en ese cl ster phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Adici n de nodos a un cl ster Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos En el caso de un miembro de cl ster global actual convi rtase en superusuario del miembro de cl ster actual Lleve a cabo estos pasos desde un nodo de un cl ster global Compruebe que haya finalizado correctamente todas las tareas de configuraci n e instalaci n de hardware que figuran como requisitos previos en una lista en el mapa de tareas de la Tabla 8 1 Inicie la utilidad clsetup phys schost clsetup Aparece el men principal Nota Para agregar un nodo a un cl ster de zona use la utilidad clzonecluster Consulte el Paso 9 para ver instrucciones sobre c mo agregar manualmente una zona a un cl ster de zona Escriba el n mero correspondiente a la opci n de que se muestre el men Nuevos nodos y pulse la tecla Intro Escriba el n mero correspondiente a la opci n de modificar la lista autorizada y pulse la tecla Intro Especifique el nombre de un equipo que pueda agregarse a s mismo Siga
566. ue forme et par quelque proc d que ce soit Par ailleurs il est interdit de proc der a toute ing nierie inverse du logiciel de le d sassembler ou de le d compiler except a des fins d interop rabilit avec des logiciels tiers ou tel que prescrit par la loi Les informations fournies dans ce document sont susceptibles de modification sans pr avis Par ailleurs Oracle Corporation ne garantit pas qu elles soient exemptes derreurs et vous invite le cas ch ant a lui en faire part par crit Si ce logiciel ou la documentation qui Paccompagne est conc d sous licence au Gouvernement des Etats Unis ou toute entit qui d livre la licence de ce logiciel ou Putilise pour le compte du Gouvernement des Etats Unis la notice suivante s applique U S GOVERNMENT RIGHTS Programs software databases and related documentation and technical data delivered to U S Government customers are commercial computer software or commercial technical data pursuant to the applicable Federal Acquisition Regulation and agency specific supplemental regulations As such the use duplication disclosure modification and adaptation shall be subject to the restrictions and license terms set forth in the applicable Government contract and to the extent applicable by the terms of the Government contract the additional rights set forth in FAR 52 227 19 Commercial Computer Software License December 2007 Oracle America Inc 500 Oracle Parkway Redwood
567. uenten con zonas globales en su lista de nodos clrg create n pnodel pnode2 migrate_truecopydg rg 5 Cree un recurso hasp rs en el grupo de recursos creado en el Paso 4 establezca la propiedad globaldevicepaths en un grupo de dispositivos de disco b sico Este grupo de dispositivos se cre en el Paso 2 clrs create t HAStoragePlus x globaldevicepaths mypool g migrate_truecopydg rg hasp2migrate_mypool 6 Sielgrupo de recursos de aplicaci n se va a ejecutar en zonas locales cree un grupo de recursos cuya lista de nodos contenga las pertinentes zonas locales Las zonas globales que se correspondan con las zonas locales deben figurar en la lista de nodos del grupo de recursos creado en el Paso 4 Establezca el valor en la propiedad rg_affinities desde este grupo de recursos en el grupo de recursos creado en el Paso 4 clrg create n pnodel zone 1 pnode2 zone 2 p Y RG_affinities migrate_truecopydg rg sybase rg 7 Creeun recurso HAStoragePlus hasp rs para el zpool creado en el Paso 3 en el grupo de recursos creado en el Paso 4 o en el Paso 6 Configure la propiedad resource_dependencies para el recurso hasp rs creado en el Paso 5 clrs create g sybase rg t HAStoragePlus p zpools mypool p resource_dependencies hasp2migrate_mypool p ZpoolsSearchDir dev did dsk hasp2import_mypool 8 Useel nuevo nombre del grupo de recursos cuando se precise un nombre de grupo de dispositivos 140 Guia de administraci n del
568. uia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Availability Suite Habilite la sincronizaci n autom tica Ejecute este comando para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm n a on lhost reprg prim Y dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 lhost reprg sec dev vx rdsk devgrp vol01 dev vx rdsk devgrp vol04 ip sync Este paso habilita la sincronizaci n autom tica Si el estado activo de la sincronizaci n autom tica es on los conjuntos de vol menes se vuelven a sincronizar cuando el sistema reinicie o cuando haya un error Compruebe que el cl ster est en modo de registro Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbin sndradm P La salida debe ser similar a la siguiente dev vx rdsk devgrp vol01 gt lhost reprg sec dev vx rdsk devgrp vol01 autosync off max q writes 4194304 max q fbas 16384 mode sync ctag devgrp state logging En modo de registro el estado es Logging y el estado activo de la sincronizaci n autom tica es off Cuando se escribe el volumen de datos en el disco se actualiza el archivo de mapa de bits en el mismo disco Habilite la instant nea de un momento determinado Utilice el comando siguiente para el software Sun StorageTek Availability Suite nodeA usr sbi
569. uiente cldevicegroup show v devicegroup Modificaci n del n mero de nodos secundarios Solaris Volume Manager En el ejemplo siguiente se muestra el comando cldevicegroup que genera clsetup al configurar el n mero de nodos secundarios para un grupo de dispositivos dg schost 1 En este ejemplo se supone que el grupo de discos y el volumen ya se hab an creado cldevicegroup set p numsecondaries 1 dg schost 1 cldevicegroup show v dg schost 1 Device Groups Device Group Name dg schost 1 Type SVM failback yes Node List phys schost 1 phys schost 2 preferenced yes numsecondaries 1 diskset names dg schost 1 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de grupos de dispositivos Ejemplo 5 33 Ejemplo 5 34 Establecimiento del n mero de nodos secundarios Veritas Volume Manager El ejemplo siguiente muestra el comando cldevicegroup generado por cl setup al definir en dos el n mero de nodos secundarios para un grupo de dispositivos dg schost 1 Consulte Establecimiento del n mero de secundarios para un grupo de dispositivos en la p gina 164 si desea obtener informaci n sobre c mo modificar el n mero de secundarios tras haber creado un grupo de dispositivos cldevicegroup set p numsecondaries 2 dg schost 1 cldevicegroup show dg schost 1 Device Groups Device Group Name dg schost 1 Type VxVM failback yes N
570. um cluster set p global _fencing f pathcount prefer3 nofencing nofencing noscrub p global_fencing Establece el algoritmo de protecci n predeterminado global para todos los dispositivos compartidos prefer3 Emplea el protocolo SCSI 3 para los dispositivos que cuenten con m s de dos rutas pathcount Determina el protocolo de protecci n mediante el n mero de rutas de DID conectadas al dispositivo compartido La configuraci n de pathcount se utiliza con los dispositivos de qu rum nofencing Desactiva la protecci n con la configuraci n del estado de todos los dispositivos de almacenamiento nofencing noscrub Al limpiar y el dispositivo se garantiza que ste est libre de todo tipo de informaci n de reserva de SCSI persistente y se permite que sistemas situados fuera del cl ster tengan acceso Cap tulo 5 Administraci n de dispositivos globales supervisi n de rutas de disco y sistemas de archivos de 175 cl ster Administraci n de la configuraci n del protocolo SCSI para dispositivos de almacenamiento 176 Ejemplo 5 41 al almacenamiento Use la opci n nofencing noscrub s lo con dispositivos de almacenamiento con problemas graves con las reservas de SCSI Establecimiento de la configuraci n del protocolo de protecci n global predeterminado para todos los dispositivos de almacenamiento En el ejemplo siguiente se establece en el protocolo SCSI 3 el protocolo de protecci n para todos los dispositivos
571. un cable de transporte de cl ster en el adaptador qfe 1 ubicado en el nodo phys schost 2 Become superuser on any node Start the clsetup utility clsetup Select Cluster interconnect gt Disable a transport cable Answer the questions when prompted You will need the following information You Will Need Information Example node names phys schost 2 adapter names qfel switch names hub1 Verify that the clinterconnect command was completed successfully Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Administraci n de interconexiones de cl sters Command completed successfully Quit the clsetup Cluster Interconnect Menu and Main Menu Verify that the cable is disabled clinterconnect show p phys schost 1 qfe2 hub2 Transport cable phys schost 2 qfel ethernet 162 Disabled Transport cable phys schost 3 qfe04l ethernet 163 Enabled Transport cable phys schost 1 qfe040 ethernet 1al Enabled Determinaci n del n mero de instancia de un adaptador de transporte Debe determinarse el n mero de instancia de un adaptador de transporte para asegurarse de que se agregue y quite el adaptador correcto mediante el comando cl setup El nombre del adaptador es una combinaci n del tipo de adaptador y del n mero de instancia de dicho adaptador Seg n el n mero de ranura busque el nombre del adaptador La pantalla siguiente es un ejemplo y tal vez no
572. un cluster 0 376 Directrices para la configuraci n de replicaci n de datos basada en host entre cl sters 379 Mapa de tareas ejemplo de configuraci n de una replicaci n de datos eee 384 Conexi n e instalaci n de Cl SterS aciciininninionicnicinnnncciin cristianas decia darian 385 Ejemplo de configuraci n de grupos de dispositivos y de recursos occconcnnnnconacacionanos 387 Ejemplo de c mo habilitar la replicaci n de datos coniinninninnnoncnnnconecenenecnce cra 402 Ejemplo de c mo efectuar una replicaci n de datos ocociocioninnconiconnonconconconconnconenn conan rencor conca 405 Ejemplo de c mo controlar una migraci n tras error cocncoonnonnananenaconanenconaraniaraciacaneos 410 10 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Contenido ndice rodeos diia ae 413 12 Prefacio El documento Gu a de administraci n del sistema de Oracle Solaris Cluster proporciona procedimientos para administrar una configuraci n de Oracle Solaris Cluster en los sistemas de SPARC y x86 Nota Esta versi n de Oracle Solaris Cluster admite sistemas que usen arquitecturas de las familias de procesadores SPARC y x86 UltraSPARC SPARC64 AMD64 e Intel 64 En este documento x86 hace referencia a la familia m s amplia de productos compatibles con 64 y 32 bits La informaci n de este documento se aplica a todas las plataformas a menos que se especifique lo contrario Este documento est
573. un dispositivo de qu rum de servidor de qu rum A continuaci n escriba yes para confirmar que va a agregar un dispositivo de qu rum de servidor de qu rum La utilidad clsetup solicita que se indique el nombre del nuevo dispositivo de qu rum Cap tulo6 Administraci n de qu rum 205 Administraci n de dispositivos de qu rum 7 Escriba el nombre del dispositivo de qu rum que va a agregar Elija el nombre que quiera para el dispositivo de qu rum Este nombre usa s lo para procesar futuros comandos administrativos La utilidad cl setup solicita que indique el nombre del archivador correspondiente al nuevo dispositivo de qu rum 8 Escriba el nombre de host del servidor de qu rum Este nombre especifica la direcci n IP del equipo en que se ejecuta el servidor de qu rum o el nombre de host del equipo dentro de la red Seg n la configuraci n IPv4 o IPv6 del host la direcci n IP del equipo debe especificarse en el archivo etc hosts en el archivo etc inet ipnodes o en ambos Nota Todos los nodos del cl ster deben tener acceso al equipo que se especifique y el equipo debe ejecutar el servidor de qu rum La utilidad cl setup solicita que indique el n mero de puerto del servidor de qu rum 9 Escriba el n mero de puerto que el servidor de qu rum usa para comunicarse con los nodos del cl ster La utilidad clsetup solicita que confirme que debe agregarse el nuevo dispositivo de qu rum 10 Escriba yes para segu
574. uplicaci n fuera de l nea en una cinta o en otro medio Use el comando ufsdump 1M o la utilidad de copia de seguridad que use normalmente ufsdump Oucf dump device submirror Nota Use el nombre del dispositivo b sico rdsk para la subduplicaci n en lugar del nombre del dispositivo de bloqueo dsk Cap tulo 12 Copias de seguridad y restauraciones de clusters 343 Copia de seguridad de un cl ster 344 10 Ejemplo 12 4 Use el comando metattach 1M para volver a poner en l nea el metadispositivo o el volumen metattach s setname mirror submirror Cuando se pone en linea un metadispositivo o un volumen se vuelve a sincronizar autom ticamente con la duplicaci n Use el comando metastat para comprobar que la subduplicaci n se vuelve a sincronizar metastat s setname mirror Copias de seguridad en linea para duplicaciones Solaris Volume Manager En el ejemplo siguiente el nodo del cluster phys schost 1 es el propietario del metaconjunto schost 1 de modo que el procedimiento de copia de seguridad se realiza desde phys schost 1 La duplicaci n dev md schost 1 dsk d0 consta de las subduplicaciones d10 d20 y d30 Determine the owner of the metaset metaset s schost 1 Set name schost 1 Set number 1 Host Owner phys schost 1 Yes Lock the file system from writes lockfs w global schost 1 List the submirrors metastat s schost 1 p schost 1 d0 m schost 1 d10 schost 1 d20
575. ursos con el comando clresourcegroup create Para obtener m s informaci n consulte la p gina de comando man cl resourcegroup 1CL Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Ejecuci n de tareas administrativas del cl ster de zona 4 Silo desea puede redistribuir la carga existente clrg remaster clresourcegroup remaster rgl rg2 Este comando puede mover los grupos de recursos de su nodo maestro actual a otros nodos para conseguir una distribuci n uniforme de la carga 5 Silodesea puede conceder a algunos grupos de recursos una mayor prioridad que a otros clresourcegroup set p priority 600 rgl La prioridad predeterminada es 500 Los grupos de recursos con valores de prioridad mayores tienen preferencia en la asignaci n de nodos por encima de los grupos de recursos con valores de prioridad menores 6 Silodesea puede definir la propiedad Preemption_mode clresourcegroup set p Preemption_mode No_cost rgl Consulte la pagina de comando man clresourcegroup 1CL para obtener m s informacion sobre las opciones HAS_COST NO_COST y NEVER 7 Silodesea tambi n puede definir el indicador Concentrate_load cluster set p Concentrate_load TRUE 8 Silodesea puede especificar una afinidad entre grupos de recursos Una afinidad negativa o positiva fuerte tiene preferencia por encima de la distribuci n de carga Las afinidades fuertes no pueden infringirse del mismo modo qu
576. uster Mayo de 2011 Revisi n A CAP TULO 2 Oracle Solaris Cluster y RBAC Este cap tulo describe el control de acceso basado en funciones RBAC en relaci n con Oracle Solaris Cluster Los temas que se tratan son Instalaci n y uso de RBAC con Oracle Solaris Cluster en la p gina 55 Perfiles de derechos de RBAC en Oracle Solaris Cluster en la p gina 56 Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster en la p gina 57 Modificaci n de las propiedades de RBAC de un usuario en la p gina 61 Instalaci n y uso de RBAC con Oracle Solaris Cluster Utilice la tabla siguiente para determinar la documentaci n que debe consultar sobre la instalaci n y el uso de RBAC M s adelante en este mismo cap tulo se indican los pasos espec ficos para instalar y utilizar RBAC con el software Oracle Solaris Cluster Tarea Instrucciones M s informaci n sobre RBAC Instalar administrar elementos y utilizar RBAC M s informaci n sobre elementos y herramientas de RBAC Cap tulo 8 Using Roles and Privileges Overview de System Administration Guide Security Services Cap tulo 9 Using Role Based Access Control Tasks de System Administration Guide Security Services Cap tulo 10 Role Based Access Control Reference de System Administration Guide Security Services 55 Perfiles de derech
577. uster sparse sczone died Sep 5 19 06 01 schost 4 cl_runtime NOTICE Membership Node 3 of cluster sparse sczone died Sep 5 19 06 01 schost 4 cl_runtime NOTICE Membership Node 1 of cluster sparse sczone died phys schost 66 Ejemplo 3 2 SPARC Cierre de un cluster global En el ejemplo siguiente se muestra la salida de una consola cuando se detiene el funcionamiento normal de un cluster global y se cierran todos los nodos lo que permite que se muestre el indicador ok La opci n g 0 establece el per odo de gracia para el cierre en cero la opci n y proporciona una respuesta yes autom tica para la pregunta de confirmaci n Los mensajes de cierre tambi n aparecen en las consolas de los otros nodos del cl ster global phys schost cluster shutdown g0 y Wed Mar 10 13 47 32 phys schost 1 cl_runtime WARNING CMM monitoring disabled phys schost 1 INIT New run level 0 The system is coming down Please wait System services are now being stopped etc rc0 d K05initrgm Calling clnode evacuate The system is down syncing file systems done Program terminated ok Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Descripci n general sobre el cierre y el arranque de un cl ster Ejemplo 3 3 V ase tambi n x86 Cierre de un cl ster global En el ejemplo siguiente se muestra la salida de la consola al detenerse el funcionamiento normal del cl ster global y cerr
578. uster check phys schost 1 Starting single node checks cluster check phys schost 1 Single node checks finished cluster check phys schost 2 Explorer finished cluster check phys schost 2 Starting single node checks cluster check phys schost 2 Single node checks finished cluster check Starting multi node checks cluster check Multi node checks finished cluster check One or more checks failed cluster check The greatest severity of all check failures was 3 HIGH cluster check Reports are in var cluster logs cluster_ check Dec5 cat var cluster logs cluster_check Dec5 cluster_check results suncluster txt CHECK ID 3065 SEVERITY HIGH FAILURE Global filesystem etc vfstab entries are not consistent across all Oracle Solaris Cluster 3 x nodes ANALYSIS The global filesystem etc vfstab entries are not consistent across all nodes in this cluster Analysis indicates FileSystem global phys schost 1 is on phys schost 1 but missing from phys schost 2 RECOMMEND Ensure each node has the correct etc vfstab entry for the filesystem s in question cat var cluster logs cluster_check Dec5 cluster_check results phys schost 1 txt CHECK ID 1398 SEVERITY HIGH FAILURE An unsupported server is being used as an Oracle Solaris Cluster 3 x node ANALYSIS This server may not been qualified to be used as an Oracle Solaris Cluster 3 x node Only servers that have been qualified with Or
579. uster configure sczone clzc sczone gt remove device match dev md apachedg dsk clzc sczone gt remove device match dev md shared 3 dsk clzc sczone gt commit clzc sczone gt end phys schost clzonecluster reboot sczone phys schost clzonecluster show v sczone Ejemplo9 15 Eliminaci n de un dispositivo de DID de un cl ster de zona Este ejemplo muestra c mo eliminar los dispositivos de DID d10 y d11 configurados en un cl ster de zona denominado sczone El recurso zc_rs configurado en el cl ster utiliza los dispositivos phys schost clzonecluster show v sczone Resource Name device match dev did dsk d10 Resource Name device match dev did dsk d11 phys schost clresource delete F Z sczone zc_rs phys schost clzonecluster configure sczone clzc sczone gt remove device match dev did dsk d10 clzc sczone gt remove device match dev did dsk d11 clzc sczone gt commit clzc sczone gt end phys schost clzonecluster reboot sczone phys schost clzonecluster show v sczone Soluci n de problemas Esta secci n contiene procedimientos de soluci n de problemas v lidos para tareas de prueba Cap tulo 9 Administraci n del cl ster 301 Soluci n de problemas 302 Ejecuci n de una aplicaci n fuera del cl ster global Ejecuci n de un metaconjunto de Solaris Volume Manager de los nodos que han arrancado en un modo que no es de cl ster Siga este procedimiento para ejecutar una aplicaci n fue
580. vcs a El primer nodo ya esta preparado Evacue el segundo nodo al que desea aplicar parches clresourcegroup evacuate n node2 Repita los pasos del 8 al 13 para el segundo nodo Separe las zonas a las que ha aplicado parches Si no separara las zonas a las que ha aplicado parches el proceso de parche fallara zoneadm z zonename detach Cambie al modo monousuario en el nodo pasivo init s Detenga todas las zonas arrancadas posibles que no est n bajo el servicio de datos de Oracle Solaris Cluster para el control de los contenedores Solaris zoneadm z zonename halt Opcional Si desinstala varios parches por motivos de rendimiento puede elegir arrancar todas las zonas configuradas en modo monousuario zoneadm z zonename boot s Aplique los parches Conecte las zonas que haya desconectado zoneadm z zonename attach F Rearranque el nodo en modo de cluster reboot Ponga en l nea el grupo o los grupos de dispositivos Inicie los grupos de recursos Compruebe si debe confirmar el software del parche con el comando scversions usr cluster bin scversions Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Aplicaci n de parches del software Oracle Solaris Cluster 32 Aparece uno de los resultados siguientes Upgrade commit is needed Upgrade commit is NOT needed All versions match Si se necesita confirmaci n confirme el software del parc
581. vi rtase en superusuario del host en que desee iniciar el software Oracle Solaris Cluster Use el comando clquorumserver stop para detener el software usr cluster bin clquorumserver stop d quorumserver d Controla si el servidor de quorum se inicia la pr xima vez que arranque el equipo Si especifica la opci n d el servidor de qu rum no se inicia la pr xima vez que arranque el equipo servidor_qu rum Identifica el servidor de qu rum Puede utilizar el n mero de puerto en el que el servidor de qu rum escucha Si ha especificado un nombre de instancia en el archivo de configuraci n puede utilizar ese nombre Para detener un solo servidor de qu rum especifique el nombre de la instancia o el n mero de puerto Para detener todos los servidores de qu rum si se han configurado varios utilice el operando Detenci n de todos los servidores de qu rum configurados En el ejemplo siguiente se detienen todos los servidores de qu rum configurados usr cluster bin clquorumserver stop Detenci n de un servidor de qu rum espec fico En el ejemplo siguiente se detiene el servidor de qu rum que escucha en el puerto n mero 2000 usr cluster bin clquorumserver stop 2000 Cap tulo6 Administraci n de qu rum 221 Administraci n de servidores de qu rum de Oracle Solaris Cluster 222 Ejemplo 6 15 Visualizaci n de informaci n sobre el servidor de qu rum Puede visualizar informaci n de configuraci
582. volumen de Solaris Volume Manager oni iii 353 Y Restauraci n de un sistema de archivos root no encapsulado Veritas Volume E A NN 358 Y Restauraci n de un sistema de archivos root encapsulado Veritas Volume O A NON 360 13 Administraci n de Oracle Solaris Cluster con las interfaces gr ficas de usuario 365 Informaci n general sobre Oracle Solaris Cluster Manager c ssssssssseesesseessesseesneeseeseeenens 365 SPARC Informaci n general sobre Sun Management Center mnccncinninnocnncnncnnnnncnnanncineniananiss 366 Configuraci n de Oracle Solaris Cluster Manager c scssesssesessesseesssesseessesseesneesneesneseessneesess 367 Configuraci n de funciones de RBAG evicaionisonocacionisoneconini ntaniniosrocsrnosaionaconionionesianionionisiiiiocis n 367 Y Uso de Common Agent Container para cambiar los n meros de puerto de los agentes de servicios o de administraci n esecuri 368 Y Cambio de la direcci n del servidor para Oracle Solaris Cluster Manager uccacccinninnanonnos 369 WV Regeneraci n de las claves de seguridad de Common Agent Container 00 369 Inicio del software Oracle Solaris Cluster Manager ooononiononinnnncnnonaconacncanncncn rra 370 Y Inicio de Oracle Solaris Cluster Manager ia 371 Ay EjeMplo 00 A ii 375 Configuraci n de replicaci n de datos basada en host con el software Sun StorageTek Ayallability Suite sti A a 375 Comprensi n del software Sun StorageTek Availability Suite en
583. volumen temporal sin detener el sistema o denegar el acceso del usuario a los datos Antes de efectuar la copia de seguridad compruebe que el cl ster se ejecute sin errores phys schost refleja un indicador de cl ster global Siga este procedimiento en un cl ster global Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster La mayor a de los comandos tambi n tienen una forma corta A excepci n de las formas de los nombres de comandos los comandos son id nticos 1 Inicie sesi n en cualquier nodo del cl ster y convi rtase en superusuario o asuma una funci n que proporcione la autorizaci n de RBAC solaris cluster admin en el nodo primario actual para el grupo de discos del cl ster 2 Muestre en unalista la informaci n del grupo de discos vxprint g diskgroup 3 Determine qu nodo tiene el grupo de discos importado actualmente e indique que es el nodo primario para el grupo de discos cldevicegroup status 4 Cree una instant nea del volumen vxassist g diskgroup snapstart volume Nota Crear una instant nea puede tardar mucho tiempo en funci n del tama o del volumen Cap tulo 12 Copias de seguridad y restauraciones de clusters 345 Copia de seguridad de un cl ster 346 10 11 12 13 14 Aseg rese de que se ha creado el volumen nuevo vxprint g diskgroup Cuando la instant nea haya finalizado aparece un estado de Snapdone instant nea hecha
584. wer 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot module platform i86pc boot_archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for before the selected line d to remove the selected line or escape to go back to the main menu c Agregue x al comando para especificar que el sistema arranque en un modo que no sea de cl ster Minimal BASH like line editing is supported For the first word TAB lists possible command completions Anywhere else TAB lists the possible completions of a device filename ESC at any time exits grub edit gt kernel platform i86pc multiboot sx Cap tulo 11 Aplicaci n de parches en el software y el firmware de Oracle Solaris Cluster 327 Aplicaci n de parches del software Oracle Solaris Cluster 328 d Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los par metros de arranque La pantalla muestra el comando editado GNU GRUB version 0 95 615K lower 2095552K upper memory root hd0 0 a kernel platform i86pc multiboot sx module platform i86pc boot_ archive Use the and v keys to select which entry is highlighted Press b to boot e to edit the selected command in the boot sequence c for a command line o to open a new line after 0 for befo
585. wn g0 y i6 Shutdown started Wed Mar 10 13 47 32 phys schost 1 cl_runtime WARNING CMM monitoring disabled phys schost 1 INIT New run level 6 The system is coming down Please wait System services are now being stopped Notice rgmd is being stopped Notice rpc pmfd is being stopped Notice rpc fed is being stopped umount global devices node l1 busy umount global phys schost 1 busy The system is down syncing file systems done rebooting Resetting Sun Ultra 1 SBus UltraSPARC 143MHz No Keyboard OpenBoot 3 11 128 MB memory installed Serial 5932401 Ethernet address 8 8 20 99 ab 77 Host ID 8899ab77 Rebooting with command boot Hostname phys schost 1 Booting as part of a cluster NOTICE Node phys schost 1 attempting to join cluster NOTICE Node phys schost 1 joined cluster The system is coming up Please wait The system is ready phys schost 1 console login x86 Rearranque de un nodo del cluster global El ejemplo siguiente muestra la salida de la consola al rearrancar el nodo phys schost 1 Los mensajes correspondientes a este nodo como las notificaciones de cierre e inicio aparecen en las consolas de los otros nodos del cl ster global phys schost clnode evacuate phys schost 1 phys schost shutdown g0 i6 y GNU GRUB version 0 95 631K lower 2095488K upper memory Solaris 10 sol_10 x86 Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2
586. xVM Reconfiguraci n din mica con dispositivos globales A la hora de concluir operaciones de reconfiguraci n din mica en dispositivos de disco y cinta de un cl ster deben tener en cuenta una serie de aspectos Guia de administraci n del sistema de Oracle Solaris Cluster Mayo de 2011 Revisi n A Informaci n general sobre la administraci n de dispositivos globales y el espacio de nombre global Todos los requisitos los procedimientos y las restricciones documentados sobre la reconfiguraci n din mica de Oracle Solaris tambi n son v lidos para la reconfiguraci n din mica en Oracle Solaris Cluster La nica excepci n consiste en la inactividad del sistema operativo Por lo tanto consulte la documentaci n sobre la reconfiguraci n din mica de Oracle Solaris antes de utilizarla con el software Oracle Solaris Cluster Preste especial atenci n a los problemas que afecten a los dispositivos de E S no conectados a red durante las operaciones de desconexi n de reconfiguraci n din mica Oracle Solaris Cluster rechaza operaciones de eliminaci n de tarjetas de reconfiguraci n din mica en dispositivos activos del nodo primario Las operaciones de reconfiguraci n din mica son factibles en los dispositivos inactivos del nodo primario y en cualquier dispositivo de los nodos secundarios Tras la operaci n de reconfiguraci n din mica el acceso a los datos del cl ster sigue igual que antes Oracle Solaris Cluster no
587. y haderby server for Oracle Solaris Cluster al 7 usr cluster lib rgm rt haderby False False ALL potential masters lt All gt False SUNWscderby False SUNW sctelemetry sctelemetry service for Oracle Solaris Cluster 1 7 usr cluster lib rgm rt sctelemetry True False ALL potential masters lt All gt False SUNWsctelemetry False Cap tulo 1 Introducci n a la administraci n de Oracle Solaris Cluster 41 Procedimiento para empezar a administrar el cl ster Resource Group HA_RG RG_description lt Null gt RG_mode Failover RG_state Managed Failback False Nodelist phys schost 1 phys schost 2 Resources for Group HA_RG Resource HA_R Type SUNW HAStoragePlus 4 Type version 4 Group HA_RG R_description Resource project_name SCSLM_HA_RG Enabled phys schost 1 True Enabled phys schost 2 True Monitored phys schost 1 True Monitored phys schost 2 True Resource Group cl db rg RG_description lt Null gt RG_mode Failover RG_state Managed Failback False Nodelist phys schost 1 phys schost 2 Resources for Group cl db rg Resource cl db rs Type SUNW haderby Type version 1 Group cl db rg R_description Resource project_name default Enabled phys schost 1 True Enabled phys schost 2 True Monitored phys schost 1 True Monitored phys schost 2 True Resource Group cl tlmtry rg RG_description lt Null gt RG_mode Scalable RG_state Mana
588. zaciones que el perfil de administraci n del cl ster Este perfil de derechos contiene las mismas autorizaciones que el perfil de operaciones del cl ster adem s de la autorizaci n siguiente solaris cluster modify Enumerar mostrar y realizar otras operaciones de lectura para los comandos de Oracle Solaris Cluster as como acceder a la GUI de Oracle Solaris Cluster Manager Enumerar mostrar exportar mostrar el estado y realizar otras operaciones de lectura as como acceder a la GUI de Oracle Solaris Cluster Manager Cambiar el estado de los objetos de cl ster Realizar las mismas operaciones que la identidad de funci n de administraci n del cl ster adem s de otras operaciones de administraci n del sistema Realizar las mismas operaciones que la identidad de funci n de operaciones del cl ster adem s de cambiar las propiedades de un objeto del cl ster Creaci n y asignaci n de una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster Use esta tarea para crear una funci n de RBAC con un perfil de derechos de administraci n de Oracle Solaris Cluster y para asignar a los usuarios esta funci n nueva v Creaci n de una funci n con la herramienta Antes de empezar Administrative Roles Para crear una funci n debe asumir una que disponga del perfil de derechos del administrador principal asignado o ejecutarla como usuario root Cap tulo 2 Oracle Solaris Clus
Download Pdf Manuals
Related Search
Related Contents
取扱説明書 - 三共電子 FastBreak - What is the Apple IIGS? Copyright © All rights reserved.
Failed to retrieve file