¿Por qué los discos duros sufren pérdida de rendimiento debido a la disminución de la capacidad?

15

Hoy estaba revisando la hoja de datos de mi HDD (una Western Digital 500GB WD5000BPKT) y noté que para toda su familia, la fila "Rendimiento" "Host to / from drive (sostenido)" está disminuyendo nominalmente en el rendimiento de lectura y escritura debido a un disminución de capacidad:

ingrese la descripción de la imagen aquí

Esto me hace preguntarme por qué. No noté ningún otro parámetro que difiera en esta tabla, excepto la capacidad del dispositivo (750 GB a 160 GB). También busqué otras familias y encontré el mismo comportamiento (Samsung y Seagate no muestran estos parámetros de rendimiento en sus hojas de datos).

Entonces, considerando que todos los discos pertenecen a la misma familia y son esencialmente los mismos, ¿alguien sabe la razón física exacta de este comportamiento?

Diogo
fuente

Respuestas:

17

La densidad de almacenamiento de los discos duros más grandes es mayor que las densidades de los más pequeños. Con la misma velocidad de rotación (7200 RPM), esto significa que los datos se pueden leer / escribir más rápido.

De la densidad de almacenamiento de memoria # Efectos sobre el rendimiento - Wikipedia, la enciclopedia libre :

El aumento de la densidad de almacenamiento de un medio casi siempre mejora la velocidad de transferencia a la que puede operar ese medio. Esto es más obvio cuando se consideran varios medios basados ​​en disco, donde los elementos de almacenamiento se extienden sobre la superficie del disco y deben rotarse físicamente debajo de la "cabeza" para poder leerlos o escribirlos. Una densidad más alta significa más movimientos de datos debajo de la cabeza para cualquier movimiento mecánico dado.

Considerando el disquete como un ejemplo básico, podemos calcular la velocidad de transferencia efectiva determinando qué tan rápido se mueven los bits debajo de la cabeza. Un disquete estándar de 3½ "gira a 300 rpm, y la pista más interna tiene aproximadamente 66 mm de largo (radio de 10.5 mm). A 300 rpm, la velocidad lineal del medio debajo del cabezal es, por lo tanto, de aproximadamente 66 mm x 300 rpm = 19800 mm / minuto , o 330 mm / s. A lo largo de esa pista, los bits se almacenan a una densidad de 686 bit / mm, lo que significa que el cabezal ve 686 bit / mm x 330 mm / s = 226,380 bit / s (o 28.3 KiB / s) .

Ahora considere una mejora en el diseño que duplica la densidad de los bits al reducir la longitud de la muestra y mantener el mismo espacio entre pistas. Esto daría como resultado una duplicación de la velocidad de transferencia porque los bits pasarían por debajo de la cabeza el doble de rápido. Las primeras interfaces de disquete se diseñaron originalmente con velocidades de transferencia de 250 kbit / s en mente, y ya se estaban superando con la introducción de los disquetes de "alta densidad" de 1,44 MB (1,440 KiB) en la década de 1980. La gran mayoría de las PC incluían interfaces diseñadas para unidades de alta densidad que funcionaban a 500 kbit / s. Estos también fueron completamente abrumados por dispositivos más nuevos como el LS-120, que se vieron obligados a usar interfaces de mayor velocidad como IDE.

(énfasis mío)

Dennis
fuente
Tenga cuidado con la comparación con un disquete. La interfaz del disquete (y ST-506) tiene datos sin procesar hacia / desde el controlador en la PC host. Las unidades IDE y SATA tienen controladores de disco integrados que almacenan completamente los datos después del cabezal de lectura. Las velocidades de transferencia PATA / SATA a / desde la PC host son independientes y totalmente independientes de las operaciones de la cabeza R / W. Esas tasas de transferencia "sostenidas" en el gráfico son promedios que incluyen tiempo inactivo o inactivo en la interfaz (mientras se accede / lee a los sectores), así como las transferencias de datos completas de 3 Gb / seg.
aserrín
@sawdust: La analogía del disquete es simplemente para ilustrar cómo una mayor densidad puede resultar en velocidades más altas. Decir que la velocidad de transferencia de host a unidad independiente y totalmente separada de la velocidad de los medios es un poco exagerada. La tasa de transferencia máxima sostenida se promedia durante un largo período de tiempo y generalmente se especifica para lecturas secuenciales. Esto mantiene los interruptores de cabeza / cilindro al mínimo, por lo que la tasa de medios es el factor decisivo.
Dennis
OK, eso no estaba redactado claramente. Dado que se suman los tiempos de transferencia de sector de la cabeza de lectura al búfer de sector y del búfer de sector a host, ambos están matemáticamente correlacionados con la velocidad de transferencia promedio. Pero estas dos operaciones ocurren secuencialmente , no simultáneamente. Los datos del sector se leen en el búfer (a una velocidad basada en la densidad de bits del plato). Luego se valida. La corrección de errores se aplica si es necesario, o tal vez el sector tenga que volverse a leer. Solo después de la verificación se transfieren los datos del sector al host (a la velocidad de la interfaz, en este caso SATA II 3Gb / sec).
aserrín
4

Bueno, se supone que todas las unidades tienen el mismo tamaño (como en altura, ancho y profundidad). Entonces, para ajustar más datos en ese tamaño, los datos deben empaquetarse a una densidad más alta.

Las partes móviles (como la cabeza) en los discos duros probablemente se muevan a la misma velocidad.

Entonces, si aumenta la densidad de datos, pero la velocidad a la que se mueve sobre dichos datos permanece constante, aumenta el rendimiento general.

Der Hochstapler
fuente
1
Sí, pero: una unidad típica puede tener uno, dos o tres platos. La capacidad total no es un indicador absoluto de la densidad de datos. Aquí hay una publicación ( rml527.blogspot.com/2010/10/… ) que enumera las unidades Western Digital de 2.5 pulgadas con densidades de 160 GB, 250 GB, 320 GB y 500 GB por bandeja.
Dave Becker
3

Creo que el formato avanzado se refiere al uso de 4k sectores en lugar de 512bytes. Entre otras cosas, este cambio significó que se necesitaban menos bits en el plato para los códigos ECC. Como resultado, se deben leer un poco menos de bits para obtener una cantidad dada de datos del disco; con todo lo demás igual, esto daría como resultado una tasa de transferencia máxima ligeramente mayor. Esta es probablemente la explicación de la diferencia entre las dos unidades de 500 MB.

Dan Neely
fuente
1

Bueno, solo una suposición descabellada, pero:

Un disco duro se divide en varias pistas, cada una dividida en varios bloques igualmente grandes.

Al leer los datos, un disco duro primero mueve la cabeza hacia la pista correcta y luego espera hasta que el disco haya girado hacia el bloque derecho. Para una lectura consecutiva de archivos más grandes que abarcan varios bloques y pistas, este movimiento tiene que suceder con bastante frecuencia. (aún más con una mayor fragmentación)

Las unidades más grandes tienen una mayor tasa de datos almacenados en cada pista o contienen un disco adicional. De esta manera, la cabeza no se ve obligada a moverse con tanta frecuencia, lo que aumenta efectivamente la velocidad de transferencia.

(lea sobre los tiempos de acceso en wikipedia )

Baarn
fuente
1

Además de mayores densidades de bits, otra posible respuesta es que los HD más grandes tienen MÁS platos / discos. Con más platos, verá más bits al mismo tiempo sin tener que mover los cabezales de lectura. Además, algunas unidades van a platos de 2 lados con el mismo efecto

Ron
fuente