apt-get update mdadm scary warnings

8

Acabo de ejecutar una actualización de apt-get en uno de mis servidores dedicados para dejar una advertencia relativamente aterradora:

Processing triggers for initramfs-tools ...
update-initramfs: Generating /boot/initrd.img-2.6.26-2-686-bigmem
W: mdadm: the array /dev/md/1 with UUID c622dd79:496607cf:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/2 with UUID 24120323:8c54087c:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/6 with UUID eef74de5:9267b2a1:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.
W: mdadm: the array /dev/md/5 with UUID 5d45b20c:04d8138f:c230666b:5103eba0
W: mdadm: is currently active, but it is not listed in mdadm.conf. if
W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE!
W: mdadm: please inspect the output of /usr/share/mdadm/mkconf, compare
W: mdadm: it to /etc/mdadm/mdadm.conf, and make the necessary changes.

Según las instrucciones, inspeccioné el resultado de / usr / share / mdadm / mkconf y lo comparé con /etc/mdadm/mdadm.conf y son bastante diferentes.

Aquí está el contenido de /etc/mdadm/mdadm.conf:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=b93b0b87:5f7c2c46:0043fca9:4026c400
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=c0fa8842:e214fb1a:fad8a3a2:28f2aabc
ARRAY /dev/md2 level=raid1 num-devices=2 UUID=cdc2a9a9:63bbda21:f55e806c:a5371897
ARRAY /dev/md3 level=raid1 num-devices=2 UUID=eca75495:9c9ce18c:d2bac587:f1e79d80

# This file was auto-generated on Wed, 04 Nov 2009 11:32:16 +0100
# by mkconf $Id$

Y aquí está la salida de / usr / share / mdadm / mkconf

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays
ARRAY /dev/md1 UUID=c622dd79:496607cf:c230666b:5103eba0
ARRAY /dev/md2 UUID=24120323:8c54087c:c230666b:5103eba0
ARRAY /dev/md5 UUID=5d45b20c:04d8138f:c230666b:5103eba0
ARRAY /dev/md6 UUID=eef74de5:9267b2a1:c230666b:5103eba0

# This configuration was auto-generated on Sat, 25 Feb 2012 13:10:00 +1030
# by mkconf 3.1.4-1+8efb9d1+squeeze1

Según tengo entendido, necesito reemplazar las cuatro líneas que comienzan con 'ARRAY' en el archivo /etc/mdadm/mdadm.conf con las diferentes cuatro líneas 'ARRAY' de la salida / usr / share / mdadm / mkconf.

Cuando hice esto y luego ejecuté update-initramfs -u no hubo más advertencias.

¿Es correcto lo que he hecho arriba? Ahora estoy aterrorizado de reiniciar el servidor por temor a que no se reinicie y ser un servidor dedicado remoto, esto ciertamente significaría tiempo de inactividad y posiblemente sería costoso volver a ejecutarlo.

SEGUIMIENTO (respuesta a la pregunta):

la salida del montaje:

/dev/md1 on / type ext3 (rw,usrquota,grpquota)
tmpfs on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
proc on /proc type proc (rw,noexec,nosuid,nodev)
sysfs on /sys type sysfs (rw,noexec,nosuid,nodev)
udev on /dev type tmpfs (rw,mode=0755)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
devpts on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=620)
/dev/md2 on /boot type ext2 (rw)
/dev/md5 on /tmp type ext3 (rw)
/dev/md6 on /home type ext3 (rw,usrquota,grpquota)

mdadm --detail / dev / md0

mdadm: md device /dev/md0 does not appear to be active.

mdadm --detail / dev / md1

/dev/md1:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:08 2011
     Raid Level : raid1
     Array Size : 31463232 (30.01 GiB 32.22 GB)
  Used Dev Size : 31463232 (30.01 GiB 32.22 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 14:03:47 2012
      State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : c622dd79:496607cf:c230666b:5103eba0
     Events : 0.24

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

mdadm --detail / dev / md2

/dev/md2:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:09 2011
     Raid Level : raid1
     Array Size : 104320 (101.89 MiB 106.82 MB)
  Used Dev Size : 104320 (101.89 MiB 106.82 MB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 13:20:20 2012
      State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : 24120323:8c54087c:c230666b:5103eba0
     Events : 0.30

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/sda2
       1       8       18        1      active sync   /dev/sdb2

mdadm --detail / dev / md3

mdadm: md device /dev/md3 does not appear to be active.

mdadm --detail / dev / md5

/dev/md5:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:09 2011
     Raid Level : raid1
     Array Size : 2104448 (2.01 GiB 2.15 GB)
  Used Dev Size : 2104448 (2.01 GiB 2.15 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 5
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 14:09:03 2012
      State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : 5d45b20c:04d8138f:c230666b:5103eba0
     Events : 0.30

    Number   Major   Minor   RaidDevice State
       0       8        5        0      active sync   /dev/sda5
       1       8       21        1      active sync   /dev/sdb5

mdadm --detail / dev / md6

/dev/md6:
    Version : 0.90
  Creation Time : Sun Aug 14 09:43:09 2011
     Raid Level : raid1
     Array Size : 453659456 (432.64 GiB 464.55 GB)
  Used Dev Size : 453659456 (432.64 GiB 464.55 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 6
    Persistence : Superblock is persistent

    Update Time : Sat Feb 25 14:10:00 2012
      State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

       UUID : eef74de5:9267b2a1:c230666b:5103eba0
     Events : 0.31

    Number   Major   Minor   RaidDevice State
       0       8        6        0      active sync   /dev/sda6
       1       8       22        1      active sync   /dev/sdb6

SEGUIMIENTO 2 (respuesta a la pregunta):

Salida desde / etc / fstab

/dev/md1      /                    ext3 defaults,usrquota,grpquota 1 1
devpts         /dev/pts             devpts     mode=0620,gid=5       0 0
proc           /proc                proc       defaults              0 0
#usbdevfs       /proc/bus/usb        usbdevfs   noauto                0 0
/dev/cdrom     /media/cdrom         auto       ro,noauto,user,exec   0 0
/dev/dvd       /media/dvd           auto       ro,noauto,user,exec   0 0
#
#
#
/dev/md2       /boot    ext2       defaults 1 2
/dev/sda3       swap     swap       pri=42   0 0
/dev/sdb3       swap     swap       pri=42   0 0
/dev/md5       /tmp     ext3       defaults 0 0
/dev/md6       /home    ext3       defaults,usrquota,grpquota 1 2
usuario568829
fuente
1
Piensa que deberían ser 1, 2, 5 y 6: su configuración actual los tiene como 0, 1, 2, 3. Algo no está bien. ¿Puede proporcionar la salida mounty los mdadm --detailcomandos para cada dispositivo MD?
Shane Madden
Gracias - se agregó información de SEGUIMIENTO arriba (en la pregunta original)
usuario568829

Respuestas:

2

Parece que las advertencias son correctas: su diseño actual difiere enormemente del suyo mdadm.conf.

La configuración que se proporciona /usr/share/mdadm/mkconfparece ser correcta. Solo para verificar: ¿sus /etc/fstabentradas coinciden con sus monturas actuales?

Dado que algo grande parece haber cambiado en este sistema, todavía estaría un poco preocupado por el reinicio. ¡Haga una copia de seguridad primero!

Shane Madden
fuente
Sí, / etc / fstab parece estar de acuerdo con la nueva configuración de montaje. He agregado la salida de / etc / fstab arriba (en FOLLOW UP 2 en la pregunta original). Extraño, no sé cómo podría haber cambiado la configuración del sistema ...? Sí, realizará una copia de seguridad de todos los datos importantes antes de intentar reiniciar. Gracias.
user568829
Sí, parece que todo se actualizó excepto el mdadm.conf. ¡Extraño! ¿Tal vez verifique la marca de tiempo de modificación /etc/fstabpara adivinar cuándo podrían haberse producido los cambios?
Shane Madden
Pensar de nuevo tal vez tiene algo que ver con una pregunta que apareció durante la actualización de apt. Apareció una pantalla con "Configuración de mdadm" y me preguntó si quería Todo o Ninguno, no estaba seguro y parecía que no podía encontrar ninguna información en Google, así que simplemente hice clic en Intro en el valor predeterminado que estaba configurado en Todo ...
usuario568829
-rw-r - r-- 1 raíz raíz 703 14 de agosto de 2011 / etc / fstab
user568829
2
@ user568829, si desea volver a ver ese cuadro de diálogo, puede volver a ejecutarlo dpkg-reconfigure mdadm. Le pregunta qué volúmenes necesita que initrd ponga a disposición para que su sistema arranque. En general, puede elegir todo, a menos que algunos de sus discos no estén disponibles hasta que la red esté activa (iSCSI) o algo así.
Linux Geek
3

Todo lo que necesitas hacer es:

Primero, cambie mdadm.confel resultado demkconf

/usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf

Luego, debes actualizar el initramfs

update-initramfs -u

Ahora, puede reiniciar el sistema.

Rafael Cristaldo
fuente
1

Tuve un problema similar, pero en lugar de diferentes matrices, mdadm.confme quedé vacío después de una actualización de Debian (Lenny a Squeeze).

W: mdadm: /etc/mdadm/mdadm.conf defines no arrays.

La misma solución funcionó. Usé la salida de mkconfcomo mi mdadm.conf:

/usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf

La prueba de reinicio pasó.

hdiogenes
fuente
0

Solo un seguimiento.

Finalmente realicé una copia de seguridad de todos los datos en el servidor e hice un reinicio y el servidor se reinició sin problemas. Entonces, los cambios descritos anteriormente (en la pregunta original) fueron correctos.

usuario568829
fuente