Estoy usando Debian Squeeze y ejecuto LVM sobre RAID 1. Por casualidad, acabo de descubrir que /dev/mapper
faltan la mayoría de los enlaces , aunque parece que mi sistema todavía funciona correctamente.
No estoy seguro de lo que pasó. Lo único que puedo imaginar que causó fue mi intento fallido de hacer funcionar un contenedor fedora LXC. Terminé eliminando un directorio /cgroup/laughlin
, correspondiente al contenedor, pero no puedo imaginar por qué eso debería haber causado el problema.
/dev/mapper
parecía (hice algunos cambios, ver más abajo) aproximadamente como
orwell:/dev/mapper# ls -la
total 0
drwxr-xr-x 2 root root 540 Apr 12 05:08 .
drwxr-xr-x 22 root root 4500 Apr 12 05:08 ..
crw------- 1 root root 10, 59 Apr 8 10:32 control
lrwxrwxrwx 1 root root 7 Mar 29 08:28 debian-root -> ../dm-0
lrwxrwxrwx 1 root root 8 Apr 12 03:32 debian-video -> ../dm-23
debian-video corresponde a un LV que acababa de crear.
Sin embargo, tengo bastantes VG en mi sistema, correspondientes a 4 VG distribuidos en 4 discos. vgs
da
orwell:/dev/mapper# vgs
VG #PV #LV #SN Attr VSize VFree
backup 1 2 0 wz--n- 186.26g 96.26g
debian 1 7 0 wz--n- 465.76g 151.41g
olddebian 1 12 0 wz--n- 186.26g 21.26g
testdebian 1 3 0 wz--n- 111.75g 34.22g
Intenté correr
/dev/mapper# vgscan --mknodes
y se crearon algunos dispositivos (vea la salida a continuación), pero no son enlaces simbólicos a los dispositivos dm como deberían ser, por lo que no estoy seguro de si esto es inútil o peor. ¿Se pondrían en el camino de la recreación de los enlaces correctos? ¿Debo eliminar estos dispositivos nuevamente?
Creo que udev crea estos enlaces, por lo que un reinicio solucionaría este problema o ¿obtendría un sistema que no se pueda iniciar? ¿Qué debo hacer para arreglar esto? ¿Hay alguna comprobación de diagnóstico / sanidad que deba realizar para asegurarme de que no haya otros problemas que no haya notado? Gracias de antemano por cualquier ayuda.
orwell:/dev/mapper# ls -la
total 0
drwxr-xr-x 2 root root 540 Apr 12 05:08 .
drwxr-xr-x 22 root root 4500 Apr 12 05:08 ..
brw-rw---- 1 root disk 253, 1 Apr 12 05:08 backup-local_src
brw-rw---- 1 root disk 253, 2 Apr 12 05:08 backup-video
crw------- 1 root root 10, 59 Apr 8 10:32 control
brw-rw---- 1 root disk 253, 15 Apr 12 05:08 debian-boot
brw-rw---- 1 root disk 253, 16 Apr 12 05:08 debian-home
brw-rw---- 1 root disk 253, 22 Apr 12 05:08 debian-lxc_laughlin
brw-rw---- 1 root disk 253, 21 Apr 12 05:08 debian-lxc_squeeze
lrwxrwxrwx 1 root root 7 Mar 29 08:28 debian-root -> ../dm-0
brw-rw---- 1 root disk 253, 17 Apr 12 05:08 debian-swap
lrwxrwxrwx 1 root root 8 Apr 12 03:32 debian-video -> ../dm-23
brw-rw---- 1 root disk 253, 10 Apr 12 05:08 olddebian-etch_template
brw-rw---- 1 root disk 253, 13 Apr 12 05:08 olddebian-fedora
brw-rw---- 1 root disk 253, 8 Apr 12 05:08 olddebian-feisty
brw-rw---- 1 root disk 253, 9 Apr 12 05:08 olddebian-gutsy
brw-rw---- 1 root disk 253, 4 Apr 12 05:08 olddebian-home
brw-rw---- 1 root disk 253, 11 Apr 12 05:08 olddebian-lenny
brw-rw---- 1 root disk 253, 7 Apr 12 05:08 olddebian-msi
brw-rw---- 1 root disk 253, 5 Apr 12 05:08 olddebian-oldchresto
brw-rw---- 1 root disk 253, 3 Apr 12 05:08 olddebian-root
brw-rw---- 1 root disk 253, 14 Apr 12 05:08 olddebian-suse
brw-rw---- 1 root disk 253, 6 Apr 12 05:08 olddebian-vgentoo
brw-rw---- 1 root disk 253, 12 Apr 12 05:08 olddebian-wsgi
brw-rw---- 1 root disk 253, 20 Apr 12 05:08 testdebian-boot
brw-rw---- 1 root disk 253, 18 Apr 12 05:08 testdebian-home
brw-rw---- 1 root disk 253, 19 Apr 12 05:08 testdebian-root
fuente
/etc/init.d/lvm2 start
. Me sirvió (pero no estaba exactamente en tu situación).Respuestas:
En estos días
/dev
está en tmpfs y se crea desde cero cada arranque porudev
. Puede reiniciar de forma segura y estos enlaces volverán.También debe encontrar enlaces simbólicos LVM a los
/dev/dm-X
nodos en los/dev/<vg>
directorios, un directorio para cada grupo de volúmenes. Sin embargo, esos nodos recreados porvgscan --mknodes
también funcionarán bien, suponiendo que tengan los números mayores / menores correctos, y es una suposición segura de que se crearon correctamente.Probablemente también
udev
pueda volver a crear los enlaces simbólicos utilizandoudevadm trigger
una coincidencia adecuada, probando--dry-run
hasta que sea correcto. Sin embargo, parece que no vale la pena el esfuerzo cuando un reinicio lo arregle también.fuente
/etc/lvm/archive
?vgscan --mknodes
. No son los enlaces simbólicos originales, pero son los nodos de desarrollo de bloques que los enlaces simbólicos habrían señalado. Debería encontrar, por ejemplo, que/dev/olddebian/root
es un enlace simbólico a ../dm-3, que tendrá los mismos números mayores: menores que los recreados/dev/mapper/olddebian-root
.Acabo de tener un problema similar al que usted describe, aunque para mí sucedió cuando intentaba instalar el nuevo Ubuntu 11.10 Oneiric Ozelot en un volumen LVM. Hice lo siguiente para configurar lvm en un sistema de arranque en vivo (los volúmenes lógicos que necesitaba ya estaban presentes):
Ahora
lvscan -v
mostraba mis volúmenes pero no estaban/dev/mapper
ni adentro/dev/<vg>/
. Finalmente descubrí que necesitaba activar el grupo de volúmenes, así:El comando anterior creó todos los archivos de dispositivo que faltan para mí. Ahora podría iniciar el programa de instalación y buscaría los volúmenes lvm y me permitiría instalarlos.
Encontrar esta información en Google fue difícil, así que escribo esta respuesta con la esperanza de que otros la tengan más fácil, de ahí el contexto en profundidad y el recorte de nombres.
Aunque no es parte de la pregunta, para completar, agregaré que en la situación anterior (instalación de Ubuntu LVM) debe agregar lvm2 al initrd del sistema recién instalado una vez que haya terminado la instalación, o no se iniciará. Su nuevo sistema debe estar configurado para usted en / target, pero si no lo está, hágalo manualmente de esta manera:
Necesitaba hacer esto para que las redes funcionen en el chroot, lo que haré a continuación:
Ahora acceda al nuevo sistema e instale lvm2:
Tenga en cuenta que ejecuta update-initramfs. Ahora simplemente escriba exit y reinicie, y su sistema debería arrancar correctamente.
fuente
vgchange
más de 6 años después de escribir la pregunta, y después de encontrar la pregunta en una búsqueda. :-) Olvidé que lo había escrito. En mi caso, el problema era definitivamente que los LV no estaban activos.Esto también funcionó para mí.
Después de un parche de kernel, mi sistema RHEL no pudo reiniciarse. Queja de un
/dev/mapper/VG-lv
archivo perdido .Arrancado para un solo usuario y comentado fuera de
/etc/fstab
. Una vez en línea, encontré que mi disco cifrado se mostraba como "dispositivo desconocido" usandopvs
.Se corrigió esto pero aún no hay archivos de dispositivo para el grupo Volumen. Ejecutar el comando anterior recreó los archivos del mapeador de dispositivos y me permitió montar.
fuente
Tuve un problema similar después de actualizar mi Debian. Durante el reinicio, me apareció este mensaje:
Encontré la solución aquí :
Y voilà, se reinició muy bien después de esto.
fuente
https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=616689 es relevante aquí. Tiene que ver con tiempos de espera tales que la raíz lvm no aparece a tiempo.
fuente