Cambié el tamaño de mi volumen lógico y sistema de archivos y todo salió bien. Instalé un nuevo kernel y después de reiniciar no puedo arrancar ni el actual ni el anterior. Obtengo un error de grupo de volumen no encontrado después de seleccionar la opción grub (2). La inspección desde el cuadro ocupado muestra que los volúmenes no están registrados con el mapeador de dispositivos y que están inactivos. No pude montarlos después de la activación, recibí un error de archivo no encontrado (mount / dev / mapper / all-root / mnt).
¿Alguna idea de cómo proceder o activarlos en el momento del arranque? ¿O por qué los volúmenes están repentinamente inactivos en el momento del arranque?
Saludos,
Marek
EDITAR: Una investigación adicional reveló que esto no tenía nada que ver con el cambio de tamaño de los volúmenes lógicos. El hecho de que los volúmenes lógicos tuvieron que activarse manualmente en el shell de ceniza después del arranque fallido y la posible solución a este problema se cubre en mi respuesta a continuación.
GRUB_PRELOAD_MODULES="lvm"
4)GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
5)sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
6)sudo apt-get install --reinstall lvm2 grub-pc grub-common
7) agregandolvm vgchange -ay
al final/usr/share/initramfs-tools/scripts/local-top/lvm2
, rápidamente me estoy quedando sin cosas para probar.Respuestas:
Entonces logré resolver esto eventualmente. Hay un problema (error) con la detección de volúmenes lógicos, que es una especie de condición de carrera (tal vez en mi caso con respecto al hecho de que esto sucede dentro de KVM). Esto se trata en la siguiente discusión . En mi caso particular (Debian Squeeze) la solución es la siguiente:
Esto me ayudó, espero que ayude a otros (curiosamente, esto todavía no es parte de la corriente principal).
Enlace al parche: _http: //bugs.debian.org/cgi-bin/bugreport.cgi? Msg = 10; filename = lvm2_wait-lvm.patch; att = 1; bug = 568838
A continuación hay una copia para la posteridad.
fuente
Cree un script de inicio que
/etc/init.d/lvm
contenga lo siguiente:Luego ejecute los comandos:
Debería hacer el truco para los sistemas Debian.
fuente
vgscan
busca grupos de volúmenes en el sistema yvgchange -a
pone a disposición grupos de volúmenes (-ay
) o no (-an
).Yo tuve este problema también. Al final, esto es lo que pareció solucionarlo:
Otras cosas que probé:
GRUB_PRELOAD_MODULES="lvm"
GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
sudo apt-get install --reinstall lvm2 grub-pc grub-common
Pasé y deshice los otros cambios, este es el único que me importó, aunque probablemente sea el menos elegante.
fuente
Si
vgscan
"encuentra" los volúmenes, debería poder activarlos convgchange -ay /dev/volumegroupname
Sin embargo, no estoy seguro de qué los haría quedar inactivos después de un reinicio.
fuente
Sin ninguno de los detalles de configuración o mensajes de error que necesitaríamos para dar una respuesta real, tomaré una puñalada en la oscuridad con
grub-mkdevicemap
una solución.fuente
Suponiendo que su sistema usa initramfs, probablemente haya un problema de configuración allí. Debe actualizar su imagen initramfs que se inicia en el momento del arranque mediante grub (en Debian lo hace con update-initramfs, no conoce otras distribuciones).
También puede hacer esto a mano desempacando initramfs y cambiando /etc/lvm/lvm.conf (o algo así) en su imagen initramfs y luego vuelva a embalarlo.
fuente
Tengo el mismo problema en mi entorno al ejecutar Red Hat 7.4 como invitado KVM. Estoy ejecutando qemu-kvm-1.5.3-141 y virt-manager 1.4.1. Al principio estaba ejecutando Red Hat 7.2 como invitado sin ningún problema, pero después de actualizar una versión menor de 7.2 a 7.4 y kernel a la última versión 3.10.0-693.5.2, algo salió mal y no pude iniciar mi partición / var LV. más. El sistema pasó al modo de emergencia solicitando la contraseña de root. Entrando con contraseña de root y ejecutar los comandos
lvm vgchange -ay
ysystemctl default
yo era capaz de activar mi/var
LV y arranque el sistema.No he descubierto lo que causa este problema, pero mi solución era incluir la LV
/var
en/etc/default/grub
lo que sigue a continuación:GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=vg_local/root rd.lvm.lv=vg_local/var rd.lvm.lv=vg_local/swap rhgb quiet biosdevname=0 net.ifnames=0 ipv6.disable=1"
Luego tuve que correr
grub2-mkconfig -o /boot/grub2/grub.cfg
y comprobar sird.lvm.lv=vg_local/var
estaba incluido en la línea vmlinuz de/boot/grub2/grub.cfg
. Después de reiniciar el sistema, ya no recibí el error para activar mi/var
LV y el sistema completa el proceso de inicio con éxito.fuente
descubrí en mi caso que la raíz de grub era root = / dev / vgname / root
entonces la prueba en / usr / share / initramfs-tools / scripts / local-top / lvm2
Siempre fue falso. y el volumen raíz nunca se activó.
actualizado / etc / fstab desde
a
y lo hizo:
resuelto mi problema
fuente
nos encontramos con este problema y encontramos que la desactivación
lvmetad
mediante el establecimientouse_lvmetad=0
de/etc/lvm/lvm.conf
forzados los volúmenes que se encuentran Mae y accesible en el arranque.fuente