Acabo de actualizar Ubuntu 14.04 y tenía dos grupos de ZFS en el servidor. Hubo algún problema menor conmigo peleando con el controlador ZFS y la versión del kernel, pero eso ha funcionado ahora. Un grupo entró en línea y se montó bien. El otro no. La principal diferencia entre la herramienta es que uno era solo un grupo de discos (almacenamiento de video / música), y el otro era un conjunto raidz (documentos, etc.)
Ya he intentado exportar y volver a importar el grupo, pero fue en vano; intentar importar me da esto:
root@kyou:/home/matt# zpool import -fFX -d /dev/disk/by-id/
pool: storage
id: 15855792916570596778
state: UNAVAIL
status: One or more devices contains corrupted data.
action: The pool cannot be imported due to damaged devices or data.
see: http://zfsonlinux.org/msg/ZFS-8000-5E
config:
storage UNAVAIL insufficient replicas
raidz1-0 UNAVAIL insufficient replicas
ata-SAMSUNG_HD103SJ_S246J90B134910 UNAVAIL
ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523 UNAVAIL
ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969 UNAVAIL
Los enlaces simbólicos para aquellos en /dev/disk/by-id
también existen:
root@kyou:/home/matt# ls -l /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910* /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51*
lrwxrwxrwx 1 root root 9 May 27 19:31 /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910 -> ../../sdb
lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910-part9 -> ../../sdb9
lrwxrwxrwx 1 root root 9 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523 -> ../../sdd
lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523-part9 -> ../../sdd9
lrwxrwxrwx 1 root root 9 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969 -> ../../sde
lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 May 27 19:15 /dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969-part9 -> ../../sde9
Al inspeccionar los diversos /dev/sd*
dispositivos enumerados, parecen ser los correctos (las 3 unidades de 1TB que estaban en una matriz raidz).
He corrido zdb -l
en cada unidad, volcado en un archivo y ejecutando un diff. La única diferencia en el 3 son los campos guid (que supongo que se espera). Las 3 etiquetas en cada una son básicamente idénticas y son las siguientes:
version: 5000
name: 'storage'
state: 0
txg: 4
pool_guid: 15855792916570596778
hostname: 'kyou'
top_guid: 1683909657511667860
guid: 8815283814047599968
vdev_children: 1
vdev_tree:
type: 'raidz'
id: 0
guid: 1683909657511667860
nparity: 1
metaslab_array: 33
metaslab_shift: 34
ashift: 9
asize: 3000569954304
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 8815283814047599968
path: '/dev/disk/by-id/ata-SAMSUNG_HD103SJ_S246J90B134910-part1'
whole_disk: 1
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 18036424618735999728
path: '/dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51422523-part1'
whole_disk: 1
create_txg: 4
children[2]:
type: 'disk'
id: 2
guid: 10307555127976192266
path: '/dev/disk/by-id/ata-WDC_WD10EARS-00Y5B1_WD-WMAV51535969-part1'
whole_disk: 1
create_txg: 4
features_for_read:
Estúpidamente, no tengo una copia de seguridad reciente de este grupo. Sin embargo, el grupo estaba bien antes de reiniciar, y Linux ve bien los discos (tengo smartctl ejecutándose ahora para verificar)
Entonces, en resumen:
- Actualicé Ubuntu y perdí el acceso a uno de mis dos zpools.
- La diferencia entre las piscinas es que la que surgió fue JBOD, la otra fue asustada.
- Todas las unidades en el zpool desmontable están marcadas UNAVAIL, sin notas de datos corruptos.
- Los grupos se crearon con discos a los que se hace referencia
/dev/disk/by-id/
. - Los enlaces simbólicos de
/dev/disk/by-id
los distintos/dev/sd
dispositivos parecen ser correctos zdb
Puede leer las etiquetas de las unidades.- El grupo ya se ha intentado exportar / importar, y no puede volver a importar.
¿Hay algún tipo de magia negra que pueda invocar a través de zpool / zfs para devolver estos discos a una matriz razonable? ¿Puedo correr zpool create zraid ...
sin perder mis datos? ¿Mis datos ya no están?
fuente
/dev/disk/by-id
para esas unidades, y todos los enlaces simbólicos para un dispositivo apuntan a la misma/dev/sd*
unidad. Y lo más parecido que puedo encontrar a una solución (usar el reemplazo de zpool), no puedo hacerlo ya que no puedo volver a importar el grupo.Me encontré con casi este problema exacto al intentar actualizar a los núcleos de la serie 3.13 en Debian Wheezy. Tienes razón en tu comentario; Es un error udev. Desafortunadamente, nunca lo resolví, pero vale la pena explorar otros núcleos, especialmente la serie 3.11, por compatibilidad con la versión 0.6.2 de ZOL. Simplemente use el kernel anterior hasta que salga 0.6.3.
fuente