Esta prueba de mover zonas entre Server fue trasparente puesto que las zona reside en un Zpool el cual se exporta en un server e importa en otro.
No se da mas detalle de configuracion de "Zones, Zfs o Zpool" puesto que para hacer esta prueba se debe tener los conocimientos requeridos. Ambos servers deben de estar conectados al mismo Storage y tener configurados los mismos Discos o Luns. Solo un server puede usar los recursos de Storage en este caso accesar a la informacion de los disco. La prueba se realizo entre dos plataformas SF25K con Version de "Solaris 10 1/06 s10s_u1wos_19a SPARC" con nivel de parches 147440-10. 1. La Zona test01 se encuentra Up and Running en server mxprosdb. root@mxprosdb # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 test01 running /cluster_zone/test01 native shared root@mxprosdb # 2. Accesar a la zona para validar recursos de FS que tenga montados. root@mxprosdb # zlogin test01 [Connected to zone 'test01' pts/2] Last login: Thu Feb 23 14:42:48 from 172.19.197.41 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 root@test01 $ uptime 5:00pm up 2:20, 1 user, load average: 0.07, 0.06, 0.06 root@test01 $ Como esta zona es de prueba no cuenta con FS adicionales. root@test01 $ df -h Filesystem size used avail capacity Mounted on / 0K 5.3G 15G 27% / /dev 20G 5.3G 15G 27% /dev proc 0K 0K 0K 0% /proc ctfs 0K 0K 0K 0% /system/contract mnttab 0K 0K 0K 0% /etc/mnttab objfs 0K 0K 0K 0% /system/object swap 69G 288K 69G 1% /etc/svc/volatile fd 0K 0K 0K 0% /dev/fd swap 69G 0K 69G 0% /tmp swap 69G 16K 69G 1% /var/run root@test01 $ 3. Detener la zona en el server MXPROSDB. root@mxprosdb # zoneadm -z test01 halt root@mxprosdb # Validar que se encuentre abajo la zona. root@mxprosdb # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - test01 installed /cluster_zone/test01 native shared Copiar el archivo index que mantiene el status de la zona y el archivo xml de la configuracion de la zona test01 en el otro server donde importaremos el Zpool e attacharemos la zona. root@mxprosdb # cd /etc/zones root@mxprosdb # ls -l total 8 -r--r--r-- 1 root bin 392 Aug 8 2007 SUNWblank.xml -r--r--r-- 1 root bin 562 Aug 8 2007 SUNWdefault.xml -rw-r--r-- 1 root sys 360 Feb 23 14:37 index -rw-r--r-- 1 root root 340 Feb 23 14:37 test01.xml root@mxprosdb # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - test01 installed /cluster_zone/test01 native shared 4. Realizar detach de la zone para deportar el zpool. root@mxprosdb # zoneadm -z test01 detach root@mxprosdb # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - test01 configured /cluster_zone/test01 native shared root@mxprosdb # 5. Se copian los archivos de la configuracion y status de la zona en el otro server. root@mxprosdb # scp index 172.19.202.111:/etc/zones/ root@mxprosdb # scp test01.xml 172.19.202.111:/etc/zones/ 6. Validar el status del zpool a exportar root@mxprosdb # zpool status pool: cluster_zone state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM cluster_zone ONLINE 0 0 0 c12t50000972082055A8d30 ONLINE 0 0 0 errors: No known data errors 7. Exportar el Zpool para que pueda ser importado en el otro Server root@mxprosdb # zpool export cluster_zone 8. Validar el status del pool que ya no se vea disponible root@mxprosdb # zpool status no pools available root@mxprosdb # 9. Accesar al otro server e importar el zpool root@mxg5app05 # zpool import pool: cluster_zone id: 17156156916478783846 state: ONLINE status: The pool is formatted using an older on-disk version. action: The pool can be imported using its name or numeric identifier, though some features will not be available without an explicit 'zpool upgrade'. config: cluster_zone ONLINE c2t5000097208205519d11 ONLINE root@mxg5app05 # 10. Importar el zpool puede ser por nombre del pool o identificador. root@mxg5app05 # zpool import 17156156916478783846 11. Validar status del pool ya en online. root@mxg5app05 # zpool status pool: cluster_zone state: ONLINE status: The pool is formatted using an older on-disk format. The pool can still be used, but some features are unavailable. action: Upgrade the pool using 'zpool upgrade'. Once this is done, the pool will no longer be accessible on older software versions. scan: none requested config: NAME STATE READ WRITE CKSUM cluster_zone ONLINE 0 0 0 c2t5000097208205519d11 ONLINE 0 0 0 errors: No known data errors root@mxg5app05 # 12. Verificar que en automatico monto el FS del Pool. root@mxg5app05 # zfs list NAME USED AVAIL REFER MOUNTPOINT cluster_zone 5.29G 27.7G 23K /cluster_zone cluster_zone/test01 5.29G 14.7G 5.29G legacy root@mxg5app05 # 13. Crear home donde reside la zona. root@mxg5app05 # mkdir -p /cluster_zone/test01 14 Asignar permisos adecuados al home de la zona. root@mxg5app05 # chmod 700 /cluster_zone/test01 15 Montar manualmente el FS de la zona. root@mxg5app05 # mount -F zfs cluster_zone/test01 /cluster_zone/test01 16 Validar que todo este correctamente para attachar la zona. root@mxg5app05 # df -h Filesystem size used avail capacity Mounted on /dev/md/dsk/d30 30G 14G 15G 50% / /devices 0K 0K 0K 0% /devices ctfs 0K 0K 0K 0% /system/contract proc 0K 0K 0K 0% /proc mnttab 0K 0K 0K 0% /etc/mnttab swap 45G 1.5M 45G 1% /etc/svc/volatile objfs 0K 0K 0K 0% /system/object sharefs 0K 0K 0K 0% /etc/dfs/sharetab fd 0K 0K 0K 0% /dev/fd /dev/md/dsk/d33 30G 9.7G 20G 34% /var swap 45G 80K 45G 1% /tmp swap 45G 32K 45G 1% /var/run /dev/md/dsk/d60 30G 1.8G 27G 7% /opt/Oracle /dev/md/dsk/d34 20G 37M 19G 1% /var/audit cluster_zone 33G 23K 28G 1% /cluster_zone cluster_zone/test01 20G 5.3G 15G 27% /cluster_zone/test01 root@mxg5app05 # 17. Attachar la zona. root@mxg5app05 # zoneadm -z test01 attach -F 18. Validar el status de la zona al termino del proceso de attach. root@mxg5app05 # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - test01 installed /cluster_zone/test01 native shared 19. Levantar la zona y accesar para validar que no exista problemas. root@mxg5app05 # zoneadm -z test01 boot zoneadm: zone 'test01': WARNING: ce2:1: no matching subnet found in netmasks(4) for 172.19.200.59; using default of 255.255.0.0. root@mxg5app05 # zlogin test01 root@mxg5app05 # zlogin test01 [Connected to zone 'test01' pts/3] Last login: Thu Feb 23 17:00:02 on pts/2 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 root@test01 $ df -h Filesystem size used avail capacity Mounted on / 0K 5.3G 15G 27% / /dev 20G 5.3G 15G 27% /dev proc 0K 0K 0K 0% /proc ctfs 0K 0K 0K 0% /system/contract mnttab 0K 0K 0K 0% /etc/mnttab objfs 0K 0K 0K 0% /system/object swap 44G 208K 44G 1% /etc/svc/volatile fd 0K 0K 0K 0% /dev/fd swap 44G 0K 44G 0% /tmp swap 44G 0K 44G 0% /var/run root@test01 $ uptime 5:23pm up 1 min(s), 1 user, load average: 0.28, 0.21, 0.16 root@test01 $ Ha terminado la prueba de mover una Zona entre Servers sin problema alguno. Test Adicional: Crear nuevos ZFS para la zona migrada. Listar ZFS actuales. root@mxg5app05 # zfs list NAME USED AVAIL REFER MOUNTPOINT cluster_zone 5.30G 27.7G 23K /cluster_zone cluster_zone/test01 5.29G 14.7G 5.29G legacy Crear ZFS u01. root@mxg5app05 # zfs create cluster_zone/u01 Listar el ZFS creado. root@mxg5app05 # zfs list NAME USED AVAIL REFER MOUNTPOINT cluster_zone 5.30G 27.7G 23K /cluster_zone cluster_zone/test01 5.29G 14.7G 5.29G legacy cluster_zone/u01 21K 27.7G 21K /cluster_zone/u01 root@mxg5app05 En automatico monta el ZFS en la zona global. root@mxg5app05 # zfs list NAME USED AVAIL REFER MOUNTPOINT cluster_zone 5.30G 27.7G 23K /cluster_zone cluster_zone/test01 5.29G 14.7G 5.29G legacy cluster_zone/u01 21K 27.7G 21K /cluster_zone/u01 root@mxg5app05 # Asignar permisos para delegar el automount a la zona. root@mxg5app05 # zfs set mountpoint=legacy cluster_zone/u01 Validar permisos sean correctos. root@mxg5app05 # zfs list NAME USED AVAIL REFER MOUNTPOINT cluster_zone 5.30G 27.7G 24K /cluster_zone cluster_zone/test01 5.29G 14.7G 5.29G legacy cluster_zone/u01 21K 27.7G 21K legacy root@mxg5app05 # Asignar tamano de FS en este caso 1G. root@mxg5app05 # zfs set quota=1G cluster_zone/u01 Crear el punto de montaje en la zona para el nuevo ZFS. root@mxg5app05 # mkdir -p /cluster_zone/test01/root/u01 Montar el nuevo ZFS a la zona. root@mxg5app05 # mount -F zfs cluster_zone/u01 /cluster_zone/test01/root/u01 root@mxg5app05 # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 test01 running /cluster_zone/test01 native shared Validar el nuevo ZFS dentro de la zona. root@mxg5app05 # zlogin test01 [Connected to zone 'test01' pts/3] Last login: Thu Feb 23 17:23:01 on pts/3 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 root@test01 $ root@test01 $ df -h Filesystem size used avail capacity Mounted on / 0K 5.3G 15G 27% / /dev 20G 5.3G 15G 27% /dev proc 0K 0K 0K 0% /proc ctfs 0K 0K 0K 0% /system/contract mnttab 0K 0K 0K 0% /etc/mnttab objfs 0K 0K 0K 0% /system/object swap 44G 208K 44G 1% /etc/svc/volatile fd 0K 0K 0K 0% /dev/fd swap 44G 0K 44G 0% /tmp swap 44G 0K 44G 0% /var/run cluster_zone/u01 0K 21K 1.0G 1% /u01 root@test01 $ Agregar la configuracion del nuevo ZFS para que la zona tenga permanente y automatico el montaje del nuevo FS. # zonecfg -z test01 zonecfg:test01> add fs zonecfg:test01:fs> set dir=/u01 zonecfg:test01:fs> set special=cluster_zone/u01 zonecfg:test01:fs> set type=zfs zonecfg:test01:fs> end zonecfg:test01> verify zonecfg:test01> commit zonecfg:test01> Reiniciar la zona para verificar los cambios sean correctos. root@mxg5app05 # zlogin test01 [Connected to zone 'test01' pts/2] Last login: Thu Feb 23 17:35:44 on pts/3 Sun Microsystems Inc. SunOS 5.10 Generic January 2005 Validar el FS sea montado despues del reinicio de la zona. root@test01 $ df -h Filesystem size used avail capacity Mounted on / 0K 5.3G 15G 27% / /dev 20G 5.3G 15G 27% /dev cluster_zone/u01 0K 21K 1.0G 1% /u01 proc 0K 0K 0K 0% /proc ctfs 0K 0K 0K 0% /system/contract mnttab 0K 0K 0K 0% /etc/mnttab objfs 0K 0K 0K 0% /system/object swap 44G 208K 44G 1% /etc/svc/volatile fd 0K 0K 0K 0% /dev/fd swap 44G 0K 44G 0% /tmp swap 44G 0K 44G 0% /var/run root@test01 $ La prueba ha terminado, bajamos la zona. root@mxg5app05 # zoneadm -z test01 halt Importante: Para que la zona levante en automatico despues de un reboot a la zona global o server. Agregar en /etc/vfstab la linea para su montaje EDIT VFSTAB FOR LEGACY ZFS #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # cluster_zone/test01 - /cluster_zone/test01 zfs - yes - |
Regresar |
SET UP RSC on a Sun Fire V880
a) Moverse hasta el directorio de nuestra arquitectura del server:
# /usr/platform/`uname -i`/sbin/
# ls
rsc-config rsc-initscript rscadm
#
b) Configurar parametros de red para su acceso remoto a la ALOM
# ./rscadm set ip_mode config
# ./rscadm set ip_addr 172.18.136.240
# ./rscadm set ip_netmask 255.255.255.0
# ./rscadm set ip_gateway 172.18.136.1
# ./rscadm resetrsc
# ./rscadm shownetwork
IP Address: 172.18.136.240
Gateway address: 172.18.136.1
Netmask: 255.255.255.0
Ethernet address: 00:03:ba:68:b2:f6
#
Ahora a testear conectividad vía telnet, una vez que se halla conectado el cable de red a la tarjeta ALOM.