Dispositivo ya montado o recurso ocupado

9

Problema :::

Instalo Redhat 5.10 x64 en el servidor que tenía un disco duro defectuoso. Eliminé el viejo disco duro defectuoso e instalé uno nuevo con capacidad de 500GB y después de la instalación necesito copiar algunos datos del disco duro viejo al disco duro nuevo bajo / u001. Así que conecté el viejo disco duro (320 gb) al servidor. Se muestra fdisk -lpero cuando trato de montar usando

sudo mount / dev / sdb2 o / dev / sdb5 dice

Nota: el fdisk -l
disco duro antiguo también tenía instalado el sistema operativo antiguo, como puede ver en / dev / sda = Nuevo disco duro
/ dev / sdb = Disco duro antiguo

Dispositivo ya montado o recurso ocupado

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Resultado del montaje :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: salida

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes
OmiPenguin
fuente
¿Cuál es el resultado de mount?
csny
¿Puedes mostrar la salida de findmnto mount?
Spack
Además, la salida de lsof +D /media/test/sería útil
csny
1
El problema es que el disco anterior no tiene sistemas de archivos simples en las particiones, pero tiene una capa LVM entre el dispositivo y los sistemas de archivos, como se muestra en el tipo de partición. Asegúrese de que su nuevo sistema tenga instaladas las herramientas LVM, reinicie con el disco antiguo conectado y verifique lvdisplayqué dispositivos LVM se detectan. Debería poder acceder a ellos en lugar de /dev/sdbX.
wurtel
2
Para todos los ayudantes, lo siento, fue puramente mi error. Olvidé por completo que se trataba de particiones lvm. Y necesita montar usando mount / dev / mapper / VG_u001 / media / test @wurtel. ¿Puede saber qué herramientas se pueden usar para restaurar los archivos desde LVM?
OmiPenguin

Respuestas:

2

Incluso en 5.x, RHEL estaba usando LVM por defecto. Tendrás que dar algunos pasos primero antes de poder montar volúmenes LVM.

Si usó el mismo nombre de VG en el disco nuevo que en el anterior, tiene un pequeño problema: tiene dos VG con el mismo nombre. Para identificar de forma exclusiva los VG que desea manipular (es decir, el que está activado /dev/sdb), necesitará los UUID de VG. Correr:

# pvs -o +vg_uuid

para enumerar todos los PV LVM detectados, incluidos sus UUID VG. También verá el nombre de VG de cada partición, para que pueda ver si hay conflictos de nombres o no.

LVM es, en general, lo suficientemente inteligente como para no estropear su configuración activa de VG a menos que realmente se esfuerce por confundirla. Entonces, si el pvscomando mencionado anteriormente no muestra nada /dev/sdb, ejecute vgscane intente nuevamente.

Una vez que conozca los UUID de VG, puede usar el comando vgrename para cambiar el nombre de cualquier VG en conflicto. Si no hay conflictos de nombres, puede saltar a vgchange.

(Para montar el LV (s) dentro de un VG, deberá activar el VG, y un VG no se activará si su nombre está en conflicto con un VG ya existente).

El comando para cambiar el nombre de un VG se ve así:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

donde la Zvlifi-...sopa de letras es el VG UUID, y el otro parámetro es solo el nuevo nombre para este VG.

Una vez que se resuelvan los conflictos de nombre de VG (o si no hay conflictos en primer lugar), deberá activar los VG /dev/sdb. Simplemente puede activar todos los VG no activados que LVM ve con este comando:

vgchange -ay

Al activar un VG, los nombres de dispositivo (enlaces) de cualquier LV dentro de él aparecerán como /dev/mapper/<VG name>-<LV name>. (También en cuanto /dev/<VG name>/<LV name>a razones de compatibilidad heredadas).

En este punto, puede montarlos como de costumbre.

telcoM
fuente
¡Esto funcionó para mí! Estaba recibiendo el error ya montado u ocupado, así que lo hice vgchange -ayy luego pude ejecutar:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell
1

Si eg

mount /dev/sda1 /mnt/tmp

huellas dactilares

mount: /dev/sda1 is already mounted or /mnt/tmp busy

compruebe si hay algún proceso usando ese dispositivo (/ dev / sda1).

A menudo es un proceso fsck que se ejecuta automáticamente al iniciar el sistema. Puede verificarlo rápidamente, p. Ej.

ps aux | grep sda1
Milan Laslop
fuente
Esa fue exactamente la raíz de mi problema, ¡gracias! (todavía esperando que el disco se monte correctamente después de que la verificación fsck haya finalizado)
Franck
0

Me he enfrentado a tal situación. La experiencia y la solución están narradas en mi blog .

el fragmento está aquí:

Error: mount: / dev / mapper / STORBCK-backup ya montado o / STORBCK ocupado?

Diagnóstico: cuando intentamos montar el / STORBCK FS, recibimos el error mencionado anteriormente.

Resolución: 1. Como el Otro FS se convirtió en solo lectura, detuve / inicié el servicio iscsi. se conectó exitosamente al dispositivo. /etc/init.d/iscsi stop /etc/init.d/iscsi start https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

Tripatía de Manas
fuente