Leí en alguna parte que los discos duros más pequeños (en términos de espacio en disco) son más rápidos que los discos duros equivalentes pero más grandes. ¿Qué tan cierto es esto? En otras palabras, digamos que tengo dos discos duros. Ambos son exactamente de la misma marca y especificaciones, pero uno es de 80 GB, mientras que el otro es de 500 GB. ¿Cuál sería más rápido? ¿O la capacidad de almacenamiento no tiene ningún efecto en la velocidad?
hard-drive
performance
Sasha Chedygov
fuente
fuente
Respuestas:
Una generalización no es útil, pero sobre todo cuando se habla de modelos similares / misma serie, diría que el disco más grande sería más rápido debido a la mayor densidad de datos de alguna manera (ya sea más platos y cabezas, o simplemente platos más densos).
El modelo más grande probablemente también sería más nuevo y podría beneficiarse del firmware y otras mejoras de producción.
Esto es aún más cierto en el mundo de SSD donde las opciones de mayor capacidad son generalmente más rápidas debido a un mayor paralelismo. Por otro lado, el rendimiento sostenido no siempre es el factor importante de un SSD en comparación con las unidades mecánicas, sino la baja latencia en la lectura / escritura de acceso aleatorio pequeño, que será el mismo en la mayoría de los escenarios, independientemente de la cantidad de chips.
fuente
El tamaño es solo una de las numerosas consideraciones para determinar el rendimiento real de una unidad.
La velocidad de rotación es uno de los factores que determina la velocidad de escritura. Una unidad de 15k RPM probablemente sería más rápida que una unidad de 10K RPM de las mismas especificaciones y tamaño. (Suponiendo que todas las cosas son iguales, lo que no son en la mayoría de los casos)
Lo siguiente a considerar es la conveniencia en la cual la bobina móvil puede mover los cabezales de lectura / escritura para una búsqueda o acceso continuo a los archivos. La latencia introducida por el cabezal de lectura / escritura de la bobina móvil es quizás la fuente más importante de demoras en el proceso de lectura / escritura.
La placa del controlador electrónico y qué BUS de conectividad admite también es otra determinación importante de velocidad. Un buen ejemplo son las diversas versiones de discos SCSI que admiten velocidades cada vez más altas con cada revisión del estándar scsi. Las unidades SAS ofrecen un rendimiento adicional sobre SCSI, IDE y SATA debido al mayor ancho de banda del BUS.
El número de platos también es un factor, pero no la consideración de rendimiento más crítica.
fuente
No puedes. La velocidad de la unidad depende de muchas cosas, principalmente de la densidad de datos del disco (la velocidad de rotación es igual).
Si puede, entre dos discos con la misma capacidad, use uno con un menor número de platos.
fuente
http://www.tomshardware.com/reviews/understanding-hard-drive-performance,1557-3.html
fuente
Si su pregunta era sobre el tamaño físico de las unidades, entonces sí: una unidad de 2.5 "a 7200 rpm es más rápida que una unidad de 3.5" a 7200 rpm del mismo tamaño. Los cabezales de lectura y escritura no necesitan moverse tanto.
fuente
En general, estoy de acuerdo con las respuestas de todos los demás. Dados dos discos duros con todo lo demás igual, el disco con mayor densidad de datos superará al que tenga menor densidad de datos.
Puedo pensar en dos escenarios en los que una mayor capacidad de conducción es en detrimento del rendimiento. En ambos casos, no es el disco el cuello de botella sino el sistema de archivos.
Esto es simplemente una cuestión de sentido común. Dado que el formateo toca cada byte en una unidad, una mayor capacidad de la unidad tardará más en formatearse. Dado que esto generalmente solo se realiza durante la instalación de un sistema operativo, no es realmente un problema. En la mayoría de los casos, es innecesario realizar una operación de formato completo de todos modos.
El mejor ejemplo de esto fue cuando las capacidades de las unidades comenzaron a superar los límites del sistema de archivos FAT. Sin llegar a ser demasiado técnico, FAT fue diseñado para capacidades de disco una fracción del tamaño de sus límites teóricos. El límite de FAT16 era de alrededor de 2 GB, pero a medida que las particiones se acercaban a este límite, no solo desperdiciaban cantidades significativas de espacio, sino que el rendimiento general del sistema de archivos se degradaba. FAT32 rompió la barrera de 2GB y funcionó mejor que FAT16, pero se encontró con el mismo problema cuando las capacidades de la unidad comenzaron a acercarse a su límite teórico (es de alrededor de 2TB, pero sería ridículo incluso intentarlo)
Cada sistema de archivos tiene diferentes mejores y peores condiciones de ejecución. Los sistemas de archivos modernos están diseñados para al menos mantener el rendimiento, si no mejorarlo, a medida que la capacidad de la unidad crece a expensas del bajo rendimiento en unidades pequeñas. Una compensación razonable teniendo en cuenta las capacidades de impulso continúa creciendo.
fuente
Un disco duro tiene algunos platos. Si tanto 80g como 500g tienen el mismo número de platos. Eso significaría que el sistema operativo instalado caería en varios platos en el 80G, donde 1 o 2 platos en el 500G.
Cada plato tendría su propia lectura y escritura. Entonces, en el 80G es atendido por más cabezas que el 500G. Entonces es más rápido.
fuente
Puramente basado en la capacidad de almacenamiento: No.
Sin embargo, una unidad más grande (como en, con más capacidad de almacenamiento) tiende a ser más moderna y más rápida. Entonces en la práctica: a menudo sí.
Desde un punto de vista mecánico, y suponiendo un óxido rotativo:
Esto significa que más platos giran debajo del cabezal derecho en un período de tiempo y menos tiempo esperando que un sector llegue debajo del cabezal.
fuente
"Mas o menos"
Para los discos duros giratorios / de disco duro tradicionales hay algunos elementos que determinarían la velocidad.
tamaño del plato : un disco duro de 2,5 pulgadas sería más rápido que un disco duro de 3,5 pulgadas, y todas las demás cosas serían iguales. Hay que buscar un 'área de superficie' más pequeña y, a menudo, mejores velocidades de lectura. Esto probablemente sea más cierto con las unidades empresariales, ya que una unidad típica de 2.5 pulgadas está optimizada para laptop.
el tamaño de la caché afectaría la "explosión" de las velocidades de transferencia. Las memorias caché más grandes son mejores, y algunas unidades modernas tienen una enorme memoria caché ssd. Esto podría ser un factor crítico ya que es probable que una unidad más nueva tenga una memoria caché más grande. Si nosotros tiene un sshd - un híbrido con una gran NAND caché, usted sin duda ver una diferencia allí.
La velocidad de rotación afecta la velocidad de búsqueda y el rendimiento, más rápido es más rápido.
Más platos significa un mayor rendimiento (ya que los datos se pueden tomar de cada uno de los muchos platos) pero en algunos casos los tiempos de búsqueda se ven afectados, ya que los cabezales se mueven en el mismo actuador.
Las interfaces son importantes. Probablemente esté en SATA, aunque 80 gb y 250 gb son aproximadamente el momento en que cambiamos de PATA. Las unidades SAS tienen una codificación algo más eficiente, tuberías de datos más amplias y, en algunos casos, pueden ser más rápidas. La última generación de unidades se cuelgan directamente del bus PCI y son ridículamente rápidas . Dudo que eso esté en el alcance aquí, aunque.
Sin embargo, en este caso específico, lo más probable es que una unidad de 250 gb más moderna tenga mejores características de rendimiento que una unidad de 80 gb de la misma velocidad de rotación
Con SSD, el caché sigue siendo un factor. Sin embargo, el número de canales y el hecho de que los SSD son de almacenamiento de acceso aleatorio significa que todas las demás cosas serían lo mismo, un SSD más grande normalmente sería más rápido y dividir las lecturas entre chips nand.
fuente
Sugeriría ejecutar la prueba en la misma unidad en lugar de en dos modelos diferentes, sin importar cuán similares sean.
Los discos duros son medios muy lentos en comparación con los procesadores e incluso un solo enlace diferente en la ruta de E / S podría significar un rendimiento mayor o menor.
Lo que sugeriría es usar LVM en Linux para simular una unidad de menor capacidad en un HDD. Digamos alrededor del 10-15% de la capacidad total del disco duro. Ejecute un ciclo de carga de trabajo que desee probar.
Luego expanda el número de bloques en la unidad lógica usando LVM a su capacidad máxima. Vaciar caché de bloque de Linux. Y nuevamente ejecute su ciclo de carga de trabajo.
En mi experiencia personal, rendimiento (10% HDD) >> rendimiento (100% HDD). Me temo que no tengo datos de rendimiento a mano. Haré un par de pruebas y publicaré los resultados aquí.
En lo que la respuesta de todos aquí se está centrando es en la densidad del disco. Un factor que falta en la respuesta de casi todos es la "duración de la rotación". Si tiene un menor número de bloques, atraviesa menos longitud en la superficie del disco, su tiempo de rotación disminuye enormemente.
Si bien la densidad del disco le brinda más datos por pulgada cuadrada, en mi experiencia, la duración de la rotación conlleva una participación mucho mayor en la latencia del disco. He visto que el rendimiento empeora 10 veces al pasar del 10% de la capacidad del disco duro al 100% de la capacidad del disco duro para la misma densidad. Incluso si las unidades de mayor capacidad ofrecen una densidad 10 veces mayor (lo cual dudo), el disco aún tendría que girar más para cubrir tantos bloques más.
Por lo tanto, el efecto de una densidad más alta se deshace un poco por el conteo de bloques más alto.
Por ejemplo práctico, mire las unidades SAS. ¿Cuál cree que es la capacidad comúnmente disponible para discos duros SAS? Es de 300GB. En un mundo de unidades SATA de 1 TB de capacidad, las empresas son lo suficientemente tontas como para vender unidades con un 30% de capacidad a precios súper premium.
fuente