Buen tamaño de bloque para la clonación de disco con diskdump (dd)

47

Utilizo dd en su forma más simple para clonar un disco duro:

dd if=INPUT of=OUTPUT

Sin embargo, leí en la página de manual que dd conoce un parámetro de tamaño de bloque. ¿Existe un valor óptimo para el parámetro de tamaño de bloque que acelerará el procedimiento de clonación?

Fi
fuente

Respuestas:

32

64k parece ser una buena elección:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(tomado de aquí ).

esto coincide con mis propios hallazgos con respecto al almacenamiento en búfer de lectura / escritura para acelerar un programa convertidor io-pesado que una vez proxeneté @work.

akira
fuente
Tenga en cuenta que este punto de referencia puede verse diferente para unidades giratorias y ssds.
Jiri
3
-1 Esto depende casi por completo de tu disco duro. Más bien, describa el procedimiento utilizado para obtener estos valores para que el OP pueda repetir los pasos para obtener el tamaño de bloque óptimo para su propio disco duro. Además, no ha incluido 64k en su lista de resultados y todos los resultados pasados ​​1k son más o menos iguales.
Micheal Johnson
@MichealJohnson no dude en editar esta publicación y tomar la descripción de cómo se generó esa tabla a partir del enlace proporcionado y pegarla aquí. 64k es el primer valor que parece no producir más mejoras en términos de velocidad Y es una alineación natural. y sí, es obvio que la velocidad medida depende completamente del hardware utilizado. Esto era cierto hace 5 años y es cierto ahora.
akira
1
¿Por qué 64k? Para mí, 2k no produce ninguna mejora adicional, por lo que 1k es el mejor valor, y también es una alineación tan natural como 64k.
Micheal Johnson
¿El tamaño del bloque cambia el rendimiento de la tarjeta SD o solo corta el tamaño del archivo en movimiento usando dd a sdcard?
Trismegistos
23

dd copiará felizmente usando el BS de lo que quiera, y copiará un bloque parcial (al final).

Básicamente, el parámetro de tamaño de bloque (bs) parece establecer la cantidad de memoria que se usa para leer en un bulto de un disco antes de intentar escribir ese bulto en el otro.

Si tiene mucha RAM, hacer que la BS sea grande (pero totalmente contenida en la RAM) significa que el subsistema de E / S se utiliza tanto como sea posible haciendo lecturas y escrituras masivamente grandes, explotando la RAM. Hacer que la BS sea pequeña significa que la sobrecarga de E / S como proporción de la actividad total aumenta.

Por supuesto, en esto hay una ley de rendimientos decrecientes. Mi aproximación aproximada es que un tamaño de bloque en el rango de aproximadamente 128K a 32M probablemente proporcionará un rendimiento tal que los gastos generales sean pequeños en comparación con la E / S simple, y el aumento de tamaño no hará mucha diferencia. La razón de que el límite inferior sea de 128K a 32M es que depende de su sistema operativo, hardware, etc.

Si fuera yo, haría algunos experimentos cronometrando una copia / clon usando un BS de 128K y nuevamente usando (digamos) 16M. Si uno es apreciablemente más rápido, úselo. Si no, entonces use la BS más pequeña de las dos.

rápidamente_ahora
fuente
10

Para aquellos que terminan aquí a través de Google, incluso si esta discusión es un poco vieja ...

Tenga en cuenta que dd es tonto por una razón: cuanto más simple es, menos formas puede arruinarlo.

Los esquemas de particionamiento complejos (considere un disco duro de arranque dual que también utiliza LVM para su sistema Linux) comenzarán a eliminar errores de la carpintería en programas como Clonezilla. Los sistemas de archivos mal desmontados pueden volar ntfsclone por las nubes.

Un sistema de archivos corrupto clonado sector por sector no es peor que el original. Un sistema de archivos corrupto después de una "copia inteligente" fallida puede estar REALMENTE en mal estado.

En caso de duda, use dd y vaya forense. Las imágenes forenses requieren copias sector por sector (de hecho, puede requerir más sectores de los que podrá realizar con dd, pero esa es una larga historia). Es lento y tedioso, pero hará el trabajo correctamente.

Además, conozca las opciones "conv = noerror, sync", para poder clonar unidades que están empezando a fallar, o hacer ISOs de CD rayados ( tos ), sin que tome meses.

Matt Heck
fuente
¿Qué hace la syncopción? La página del manual se limita a decir: "use synchronized I/O for data and metadata". ¿Con qué nos estamos sincronizando? Eso puede ser muchas cosas diferentes.
sherrellbc
1
@sherrellbc sync llena los bloques de entrada con ceros si hubo errores de lectura, por lo que las compensaciones de datos permanecen sincronizadas.
goetzc
9

Como han dicho otros, no hay un tamaño de bloque universalmente correcto; lo que es óptimo para una situación o una pieza de hardware puede ser terriblemente ineficiente para otra. Además, dependiendo de la salud de los discos, puede ser preferible usar un tamaño de bloque diferente al que es "óptimo".

Una cosa que es bastante confiable en el hardware moderno es que el tamaño de bloque predeterminado de 512 bytes tiende a ser casi un orden de magnitud más lento que una alternativa más óptima. En caso de duda, descubrí que 64K es un valor predeterminado moderno bastante sólido. Aunque 64K generalmente no es EL tamaño de bloque óptimo, en mi experiencia tiende a ser mucho más eficiente que el predeterminado. 64K también tiene un historial bastante sólido de desempeño confiable: puede encontrar un mensaje de la lista de correo Eug-Lug, alrededor de 2002, recomendando un tamaño de bloque de 64K aquí: http://www.mail-archive.com/eug- [email protected]/msg12073.html

Para determinar EL tamaño de bloque de salida óptimo, he escrito el siguiente script que prueba escribir un archivo de prueba de 128M con dd en un rango de diferentes tamaños de bloque, desde el predeterminado de 512 bytes hasta un máximo de 64M. Tenga cuidado, este script usa dd internamente, así que úselo con precaución.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Ver en GitHub

Solo probé este script en un sistema Debian (Ubuntu) y en OSX Yosemite, por lo que probablemente tomará algunos ajustes para que funcione en otros sabores de Unix.

Por defecto, el comando creará un archivo de prueba llamado dd_obs_testfile en el directorio actual. Alternativamente, puede proporcionar una ruta a un archivo de prueba personalizado proporcionando una ruta después del nombre del script:

$ ./dd_obs_test.sh /path/to/disk/test_file

El resultado del script es una lista de los tamaños de bloque probados y sus respectivas tasas de transferencia de la siguiente manera:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Nota: la unidad de las tasas de transferencia variará según el sistema operativo)

Para probar el tamaño óptimo del bloque de lectura, podría usar más o menos el mismo proceso, pero en lugar de leer desde / dev / zero y escribir en el disco, leería desde el disco y escribiría en / dev / null. Un script para hacer esto podría verse así:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Ver en GitHub

Una diferencia importante en este caso es que el archivo de prueba es un archivo escrito por el script. ¡No apunte este comando a un archivo existente o el archivo existente se sobrescribirá con datos aleatorios!

Para mi hardware en particular, descubrí que 128K era el tamaño de bloque de entrada más óptimo en un HDD y 32K era más óptimo en un SSD.

Aunque esta respuesta cubre la mayoría de mis hallazgos, me he encontrado con esta situación tantas veces que escribí una publicación de blog al respecto: http://blog.tdg5.com/tuning-dd-block-size/ Puede encontrar más detalles en las pruebas que realicé allí.

Esta publicación de StackOverflow también puede ser útil: dd: ¿Cómo calcular el tamaño de bloque óptimo?

tdg5
fuente
3

Sí, pero no lo encontrarás sin muchas pruebas. Sin embargo, he descubierto que 32M es un buen valor para usar.

Ignacio Vazquez-Abrams
fuente
1

clonación de una unidad de arranque antigua a una nueva SSD en sata externa (SSD a SSD)

  • usando linux Ubuntu 18.04.2 LTS 64bit
  • hp xw4600 (8 GB de RAM, Intel Core 2 Quad Q6700 a 2.66 GHz 4c / 4t sin HT)

utilizando discos (herramienta)> formato> Borrado seguro ATA (2 minutos)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda: Kingston SSD (antiguo; los discos informan una tasa de lectura promedio de 263 MB / s con picos cercanos a 270 MB / s - no hay prueba de escritura debido al disco del sistema)
  • sdf: Crucial MX500, 500GB, CT500MX500SSD1 (informes de discos: velocidad promedio de lectura / escritura 284/262 MB / s, y tiempo de acceso 0.05ms, con picos de 290/270 MB / s)

Pruebas de funcionamiento:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

segundo intento después de un borrado seguro con el mismo resultado:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s
kgSW.de
fuente
¡Bienvenido a Super User! Gracias por su respuesta, pero le sugiero que lo edite para incluir el resumen; entre todos los resultados citados, ¡me resultó difícil encontrar cuál es su respuesta real! Saludos
bertieb