Problema :::
Instalo Redhat 5.10 x64 en el servidor que tenía un disco duro defectuoso. Eliminé el viejo disco duro defectuoso e instalé uno nuevo con capacidad de 500GB y después de la instalación necesito copiar algunos datos del disco duro viejo al disco duro nuevo bajo / u001. Así que conecté el viejo disco duro (320 gb) al servidor. Se muestra fdisk -l
pero cuando trato de montar usando
sudo mount / dev / sdb2 o / dev / sdb5 dice
Nota: el fdisk -l
disco duro antiguo también tenía instalado el sistema operativo antiguo, como puede ver en / dev / sda = Nuevo disco duro
/ dev / sdb = Disco duro antiguo
Dispositivo ya montado o recurso ocupado
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
Resultado del montaje :::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDISPLAY :: salida
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
filesystems
rhel
mount
OmiPenguin
fuente
fuente
mount
?findmnt
omount
?lsof +D /media/test/
sería útillvdisplay
qué dispositivos LVM se detectan. Debería poder acceder a ellos en lugar de/dev/sdbX
.Respuestas:
Incluso en 5.x, RHEL estaba usando LVM por defecto. Tendrás que dar algunos pasos primero antes de poder montar volúmenes LVM.
Si usó el mismo nombre de VG en el disco nuevo que en el anterior, tiene un pequeño problema: tiene dos VG con el mismo nombre. Para identificar de forma exclusiva los VG que desea manipular (es decir, el que está activado
/dev/sdb
), necesitará los UUID de VG. Correr:para enumerar todos los PV LVM detectados, incluidos sus UUID VG. También verá el nombre de VG de cada partición, para que pueda ver si hay conflictos de nombres o no.
LVM es, en general, lo suficientemente inteligente como para no estropear su configuración activa de VG a menos que realmente se esfuerce por confundirla. Entonces, si el
pvs
comando mencionado anteriormente no muestra nada/dev/sdb
, ejecutevgscan
e intente nuevamente.Una vez que conozca los UUID de VG, puede usar el comando vgrename para cambiar el nombre de cualquier VG en conflicto. Si no hay conflictos de nombres, puede saltar a
vgchange
.(Para montar el LV (s) dentro de un VG, deberá activar el VG, y un VG no se activará si su nombre está en conflicto con un VG ya existente).
El comando para cambiar el nombre de un VG se ve así:
donde la
Zvlifi-...
sopa de letras es el VG UUID, y el otro parámetro es solo el nuevo nombre para este VG.Una vez que se resuelvan los conflictos de nombre de VG (o si no hay conflictos en primer lugar), deberá activar los VG
/dev/sdb
. Simplemente puede activar todos los VG no activados que LVM ve con este comando:Al activar un VG, los nombres de dispositivo (enlaces) de cualquier LV dentro de él aparecerán como
/dev/mapper/<VG name>-<LV name>
. (También en cuanto/dev/<VG name>/<LV name>
a razones de compatibilidad heredadas).En este punto, puede montarlos como de costumbre.
fuente
vgchange -ay
y luego pude ejecutar:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
Si eg
huellas dactilares
compruebe si hay algún proceso usando ese dispositivo (/ dev / sda1).
A menudo es un proceso fsck que se ejecuta automáticamente al iniciar el sistema. Puede verificarlo rápidamente, p. Ej.
fuente
Me he enfrentado a tal situación. La experiencia y la solución están narradas en mi blog .
el fragmento está aquí:
Error: mount: / dev / mapper / STORBCK-backup ya montado o / STORBCK ocupado?
Diagnóstico: cuando intentamos montar el / STORBCK FS, recibimos el error mencionado anteriormente.
Resolución: 1. Como el Otro FS se convirtió en solo lectura, detuve / inicié el servicio iscsi. se conectó exitosamente al dispositivo. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html
fuente