Tengo un disco duro SATA de 3 TB usado que estoy planeando usar como reemplazo en una caja Win 7.
No necesito toda esta capacidad, así que estaba pensando que si la formateo a 1TB aumentaría la confiabilidad. Mi pensamiento detrás de esto se basa en los siguientes pensamientos:
- Habría más 'espacio de respiración' físico entre cada sector / pista.
- Cuando se encuentran sectores defectuosos, habrá un grupo más grande de sectores no asignados para poner en uso.
¿Son ciertas mis suposiciones?
Si mis suposiciones no son ciertas, ¿qué sucede con todo el espacio no utilizado? ¿El disco duro todavía se formatea con las mismas dimensiones físicas? por lo tanto, mi unidad de 1 TB seguirá presionando sectores en la bandeja como si estuviera formateada en 3 TB.
¡Muchas gracias!
hard-drive
ntfs
hardware-failure
format
chazjn
fuente
fuente
Respuestas:
Tus suposiciones están equivocadas.
La unidad tiene un formato físico fijo que se compone de sectores físicos, en su caso totalizando 3 TB. Al formatear el disco, está limpiando efectivamente los datos en esos sectores, pero no los está reorganizando ni cambiando su tamaño físico o diseño de ninguna manera. Al formatear a una capacidad menor, simplemente estaría desperdiciando el espacio extra, existiría, pero simplemente no se utilizaría para nada .
El formateo no cambia el tamaño del sector físico ni el espacio entre pistas.
En cuanto a los sectores no asignados, creo que las unidades tienen un número predeterminado de sectores reservados para la reasignación y la unidad no tiene forma de saber si el sistema operativo utiliza sectores. Los SSD tienen una característica llamada "recorte" que puede indicarle a la unidad que los sectores están limpios, pero esto es algo ligeramente diferente, los platos giratorios carecen de cualquier tipo de característica similar. Los sectores sin formato no se utilizarían para la reasignación de sectores defectuosos.
Al formatear una unidad de 3TB como 1TB, simplemente se está evitando usar 2TB de espacio y desperdiciando 2/3 de lo que gastó en la unidad. Su partición de 1 TB estaría sentada frente a 2 TB de espacio vacío.
fuente
Los algoritmos de corrección de errores utilizados por los discos duros, como todos los demás algoritmos de corrección de errores, tienen la posibilidad de fallar. Existe un riesgo extremadamente remoto pero existente de que el disco duro haya escrito datos diferentes a los que usted envió. Con las capacidades llegando a los billones de bytes, esta posibilidad aumenta estadísticamente.
Pero no se compra protección adicional contra esto al dejar espacio sin usar. Usted obtiene protección adicional almacenando datos redundantes, ya sea utilizando una herramienta PAR / PAR2 o escribiendo los datos varias veces.
Sin embargo, si está preocupado por esto, también podría esforzarse en copiar los datos en otra unidad física que tenga beneficios adicionales como la protección de fallas mecánicas y demás.
No usar el espacio le daría oportunidades adicionales en caso de que el cabezal del disco duro raspe la superficie debido a que se golpeó. Pero piénselo: a menos que tenga un método para espaciar sus datos de manera uniforme alrededor del disco, suponiendo que esté usando estos datos, es probable que la cabeza esté en o cerca de las pistas que contienen sus datos. Los días en que los controladores del disco duro responderían a un comando de "estacionamiento" para "apartarse" de los datos han pasado hace mucho tiempo.
fuente
Si formatea el disco duro a su capacidad total de 3 TB y nunca usa más de 1 TB, entonces sí podría aumentar la vida útil del disco duro. Yo digo que potencialmente, y no definitivamente, b / c el Disco Duro podría fallar mecánicamente. Realmente no hay nada que puedas hacer para evitar que eso suceda. Sin embargo, a medida que los sectores en los platos comiencen a corromperse, la tabla de particiones se reasignará a otros sectores en los platos que no están dañados y no se usan. El uso de un disco duro a su máxima capacidad evita que los sectores se reasignen, lo que permite la pérdida de datos. ¡Espero que esto ayude! :-)
fuente
También noto que puede aumentar un poco la vida útil y la velocidad si particiona un disco grande y luego hace cosas basadas en la expectativa de vida útil de un disco (como neumáticos rotativos de automóviles), instala el sistema operativo en una partición, posiblemente en un disco virtual muy grande unidad (caché) en una sola, y como ya se sugirió, los datos en la tercera [suponiendo que haya creado 3 particiones]. Ahora, si la garantía es de 3 años, rotó el uso de cada partición todos los años, por lo que se turnaban para que la caché y el sistema operativo se escribieran al máximo con cachés y archivos temporales, y así lo logra eliminando la memoria virtual en 1 partición e instalando nuevos SO, lo mismo que la desfragmentación perfecta desde cero. También lo hace cuando copia datos de uno a otro, puede volver a formatear cada uno primero, Como todos los archivos se copian en una unidad nueva, por así decirlo, no se copian fragmentados si los copia todos a la vez, incluso cuando están fragmentados en la partición de origen. La mayor ganancia es distribuir las escrituras del disco en 3 particiones ... hay algunas escrituras significativas de ciertos archivos porque un nombre de archivo existente siempre se escribe sobre sí mismo si se hace más grande, se agrega al final, pero todos los cambios comienzan desde el principio . Encontré puntos débiles en NDD corriendo hace años tratando de leer / escribir una y otra vez antes de finalmente escribir. Me preguntaba por qué algunas aplicaciones se congelaban a veces y al darme cuenta de que NDD podía escribir en 6 intentos (intentos predeterminados de DOS) continuó como si todo estuviera bien (sin decirme los puntos débiles), así que usé la aplicación de identificación de lo que se estaba probando en grupos. .. usado Norton ' s Edición de disco para identificar qué archivo (s) utilizó ese / esos clústeres ... luego cambió el nombre del archivo físico FILENAME.BAD. Ahora los archivos faltantes tuvieron que ser reinstalados, pero ¿adivina qué ...? No más congelamientos de software ... técnicamente lo que hice fue marcar manualmente puntos en la unidad defectuosos en el nivel dos, y al renombrarlos los forcé a escribir en un área de unidad nueva (fuerte no débil). Encontré que los archivos escritos varias veces durante las operaciones normales de dos fueron las áreas que comenzaron a fallar primero la mayor parte del tiempo.
fuente