sda ejemplos disco dev comando clonar linux dd

linux - ejemplos - dd: ¿Cómo calcular el tamaño de bloques óptimo?



linux dd progress indicator (6)

Como han dicho otros, no existe un tamaño de bloque universalmente correcto; lo que es óptimo para una situación o una pieza de hardware puede ser terriblemente ineficiente para otra. Además, dependiendo de la salud de los discos, puede ser preferible usar un tamaño de bloque diferente de lo que es "óptimo".

Una cosa que es bastante confiable en hardware moderno es que el tamaño de bloque predeterminado de 512 bytes tiende a ser casi un orden de magnitud más lento que una alternativa más óptima. En caso de duda, descubrí que 64K es un predeterminado moderno bastante sólido. Aunque 64K generalmente no es EL tamaño de bloque óptimo, en mi experiencia, tiende a ser mucho más eficiente que el predeterminado. 64K también tiene una historia bastante sólida de rendimiento confiable: puede encontrar un mensaje de la lista de correo de Eug-Lug, alrededor de 2002, recomendando un tamaño de bloque de 64K aquí: http://www.mail-archive.com/[email protected]/msg12073.html

Para determinar el tamaño óptimo del bloque de salida, escribí el siguiente script que prueba escribir un archivo de prueba de 128M con dd en un rango de diferentes tamaños de bloques, desde el predeterminado de 512 bytes hasta un máximo de 64M. Ten en cuenta que este script usa dd internamente, así que úsalo con precaución.

dd_obs_test.sh:

#!/bin/bash # Since we''re dealing with dd, abort if any errors occur set -e TEST_FILE=${1:-dd_obs_testfile} TEST_FILE_EXISTS=0 if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi TEST_FILE_SIZE=134217728 if [ $EUID -ne 0 ]; then echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2 fi # Header PRINTF_FORMAT="%8s : %s/n" printf "$PRINTF_FORMAT" ''block size'' ''transfer rate'' # Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864 do # Calculate number of segments required to copy COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE)) if [ $COUNT -le 0 ]; then echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests." break fi # Clear kernel cache to ensure more accurate test [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches # Create a test file with the specified block size DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null) # Extract the transfer rate from dd''s STDERR output TRANSFER_RATE=$(echo $DD_RESULT | /grep --only-matching -E ''[0-9.]+ ([MGk]?B|bytes)/s(ec)?'') # Clean up the test file if we created one if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi # Output the result printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE" done

Ver en GitHub

Solo he probado esta secuencia de comandos en un sistema Debian (Ubuntu) y en OSX Yosemite, por lo que es probable que requiera algunos ajustes para trabajar en otros sabores de Unix.

Por defecto, el comando creará un archivo de prueba denominado dd_obs_testfile en el directorio actual. De forma alternativa, puede proporcionar una ruta a un archivo de prueba personalizado proporcionando una ruta después del nombre del script:

$ ./dd_obs_test.sh /path/to/disk/test_file

El resultado de la secuencia de comandos es una lista de los tamaños de bloque probados y sus respectivas tasas de transferencia, como por ejemplo:

$ ./dd_obs_test.sh block size : transfer rate 512 : 11.3 MB/s 1024 : 22.1 MB/s 2048 : 42.3 MB/s 4096 : 75.2 MB/s 8192 : 90.7 MB/s 16384 : 101 MB/s 32768 : 104 MB/s 65536 : 108 MB/s 131072 : 113 MB/s 262144 : 112 MB/s 524288 : 133 MB/s 1048576 : 125 MB/s 2097152 : 113 MB/s 4194304 : 106 MB/s 8388608 : 107 MB/s 16777216 : 110 MB/s 33554432 : 119 MB/s 67108864 : 134 MB/s

(Nota: la unidad de las tasas de transferencia variará según el sistema operativo)

Para probar el tamaño de bloque de lectura óptimo, podría usar más o menos el mismo proceso, pero en lugar de leer desde / dev / zero y escribir en el disco, leería desde el disco y escribiría en / dev / null. Una secuencia de comandos para hacer esto podría verse así:

dd_ibs_test.sh:

#!/bin/bash # Since we''re dealing with dd, abort if any errors occur set -e TEST_FILE=${1:-dd_ibs_testfile} if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi TEST_FILE_SIZE=134217728 # Exit if file exists if [ -e $TEST_FILE ]; then echo "Test file $TEST_FILE exists, aborting." exit 1 fi TEST_FILE_EXISTS=1 if [ $EUID -ne 0 ]; then echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2 fi # Create test file echo ''Generating test file...'' BLOCK_SIZE=65536 COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE)) dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1 # Header PRINTF_FORMAT="%8s : %s/n" printf "$PRINTF_FORMAT" ''block size'' ''transfer rate'' # Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864 do # Clear kernel cache to ensure more accurate test [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches # Read test file out to /dev/null with specified block size DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null) # Extract transfer rate TRANSFER_RATE=$(echo $DD_RESULT | /grep --only-matching -E ''[0-9.]+ ([MGk]?B|bytes)/s(ec)?'') printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE" done # Clean up the test file if we created one if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Ver en GitHub

Una diferencia importante en este caso es que el archivo de prueba es un archivo escrito por el script. ¡No apunte este comando a un archivo existente o el archivo existente se sobrescribirá con ceros!

Para mi hardware en particular, encontré que 128K era el tamaño de bloque de entrada más óptimo en una HDD y 32K era lo más óptimo en una SSD.

Aunque esta respuesta cubre la mayoría de mis hallazgos, me he encontrado con esta situación bastantes veces que escribí una publicación en el blog sobre ella: http://blog.tdg5.com/tuning-dd-block-size/ Puede encontrar más detalles en las pruebas que realicé allí.

¿Cómo se calcula el tamaño de bloques óptimo cuando se ejecuta un dd ? Lo he investigado un poco y no he encontrado nada que sugiera cómo se lograría esto.

Tengo la impresión de que un tamaño de bloques mayor daría como resultado un dd más rápido ... ¿es así?

Estoy a punto de encontrar dos discos duros Hitachi idénticos de 500 gb que funcionan a 7200 rpm en una caja con Intel Core i3 con 4 GB de memoria DDR3 y 1333 mhz de RAM, así que estoy tratando de descubrir qué tamaño de bloque usar. (Voy a iniciar Ubuntu 10.10 x86 desde una unidad flash y ejecutarlo desde allí).


El tamaño de bloque óptimo depende de varios factores, incluido el sistema operativo (y su versión) y los diversos buses y discos de hardware involucrados. Varios sistemas tipo Unix (incluyendo Linux y al menos algunos sabores de BSD) definen el miembro st_blksize en la struct stat que da lo que el kernel piensa que es el tamaño de bloque óptimo:

#include <sys/stat.h> #include <stdio.h> int main(void) { struct stat stats; if (!stat("/", &stats)) { printf("%u/n", stats.st_blksize); } }

La mejor manera puede ser experimentar: copiar un gigabyte con varios tamaños de bloque y tiempo. (Recuerde borrar los cachés del buffer del kernel antes de cada ejecución: echo 3 > /proc/sys/vm/drop_caches ).

Sin embargo, como regla general, he descubierto que un tamaño de bloque lo suficientemente grande permite hacer un buen trabajo, y las diferencias entre, por ejemplo, 64 KiB y 1 MiB son menores, en comparación con 4 KiB frente a 64 KiB. (Aunque, ciertamente, ha pasado un tiempo desde que lo hice. Ahora uso un mebibyte por defecto, o simplemente dejo que dd elija el tamaño).


Esto es totalmente dependiente del sistema. Debe experimentar para encontrar la solución óptima. Intente comenzar con bs=8388608 . (Como Hitachi HDDs parece tener 8 MB de caché).


He encontrado que el tamaño de bloques óptimo es de 8 MB (¿igual a la memoria caché de disco?). Necesitaba borrar (algunos dicen: lavar) el espacio vacío en un disco antes de crear una imagen comprimida del mismo. Solía:

cd /media/DiskToWash/ dd if=/dev/zero of=zero bs=8M; rm zero

Experimenté con valores de 4K a 100M.

Después de dejar que dd se ejecute durante un tiempo, lo eliminé (Ctlr + C) y leí el resultado:

36+0 records in 36+0 records out 301989888 bytes (302 MB) copied, 15.8341 s, 19.1 MB/s

Como dd muestra la tasa de entrada / salida (19.1MB / s en este caso), es fácil ver si el valor que ha elegido tiene un mejor rendimiento que el anterior o peor.

Mis puntajes:

bs= I/O rate --------------- 4K 13.5 MB/s 64K 18.3 MB/s 8M 19.1 MB/s <--- winner! 10M 19.0 MB/s 20M 18.6 MB/s 100M 18.6 MB/s


Podría intentar usar dd-opt , una pequeña utilidad que escribí.

(Mejoras / refinamientos bienvenidos!)


  • para un mejor rendimiento utilice el mayor tamaño de bloques que la memoria RAM puede acomodar (enviará menos llamadas de E / S al sistema operativo)
  • para una mejor precisión y recuperación de datos, establezca el tamaño de bloques en el tamaño del sector nativo de la entrada

Como dd copia los datos con la opción conv = noerror, sync, cualquier error que encuentre dará como resultado que el resto del bloque sea reemplazado por cero bytes. Los tamaños de bloque más grandes se copiarán más rápidamente, pero cada vez que se encuentra un error, el resto del bloque se ignora.

source