En mis trabajos hace casi dos décadas, los expertos en TI mantendrían el tamaño de la partición principal de Windows (unidad C) extremadamente pequeño en comparación con las otras particiones. Argumentarían que esto ejecuta la PC a la velocidad óptima sin disminuir la velocidad.
Pero la desventaja es que C: la unidad se llena fácilmente si se mantiene pequeña, y pronto no puede instalar un nuevo software ya que se queda sin espacio. Incluso si instalo software en D: drive, parte de él siempre se copia a C: que lo llena.
Mi pregunta es esta práctica sigue siendo buena? Por qué está hecho ¿Cuáles son sus principales ventajas si las hay? Una obvia es que si la partición primaria falla, sus datos están seguros en la secundaria.
La razón por la que hago esta pregunta es porque estoy tratando de actualizar Visual Studio y no puedo porque solo me quedan 24 MB en la partición primaria.
Respuestas:
En general: no .
En versiones anteriores de Windows, había problemas de rendimiento con unidades grandes (más exactamente: con sistemas de archivos grandes), principalmente porque el sistema de archivos FAT utilizado por Windows no era compatible con sistemas de archivos grandes. Sin embargo, todas las instalaciones modernas de Windows usan NTFS en su lugar, lo que resolvió estos problemas. Ver, por ejemplo, ¿El rendimiento de NTFS se degrada significativamente en volúmenes mayores de cinco o seis TB? , lo que explica que incluso las particiones de tamaño terabyte no suelen ser un problema.
Hoy en día, generalmente no hay razón para no usar una única y grande partición C:. El propio instalador de Microsoft por defecto crea una única unidad C: grande. Si hubiera buenas razones para crear una partición de datos separada, el instalador la ofrecería: ¿por qué Microsoft debería permitirle instalar Windows de una manera que cree problemas?
La razón principal contra las unidades múltiples es que aumenta la complejidad, lo que siempre es malo en TI. Crea nuevos problemas, como:
Hay algunos casos especiales en los que las particiones múltiples aún tienen sentido:
Para abordar algunos argumentos a menudo planteados a favor de particiones pequeñas / separadas:
Realmente debería hacer una copia de seguridad de todos sus datos de todos modos, dividirlos en particiones no ayuda realmente. Además, si realmente necesita hacerlo, todo el software de copia de seguridad que conozco le permite hacer una copia de seguridad selectiva de una parte de una partición.
Si bien esto es teóricamente cierto, no hay garantía de que el daño se limite a una sola partición (y es aún más difícil de verificar para asegurarse de esto en caso de problemas), por lo que esto proporciona una garantía limitada. Además, si tiene copias de seguridad buenas y redundantes, la seguridad adicional suele ser demasiado pequeña para que valga la pena. Y si no tiene copias de seguridad, tiene problemas mucho mayores ...
Si bien esto puede ser cierto en teoría, en la práctica, muchos programas escribirán configuraciones y otros datos importantes para conducir C: (porque desafortunadamente están codificados para hacerlo, o porque accidentalmente olvidó cambiar sus configuraciones). Por lo tanto, en mi humilde opinión es muy arriesgado confiar en esto. Además, necesita buenas copias de seguridad de todos modos (ver arriba), por lo que después de la reinstalación puede restaurar las copias de seguridad, lo que le dará el mismo resultado (solo con mayor seguridad). Las versiones modernas de Windows ya mantienen los datos del usuario en un directorio separado (directorio de perfil de usuario), por lo que es posible la restauración selectiva.
Consulte también ¿Instalará software en la misma partición que el sistema Windows? para más información.
fuente
La razón histórica de esta práctica probablemente se deba a las propiedades de rendimiento de los discos duros magnéticos giratorios. El área en los discos giratorios con la velocidad de acceso secuencial más alta son los sectores más externos (cerca del inicio de la unidad).
Si usa toda la unidad para su sistema operativo, tarde o temprano (a través de actualizaciones, etc.) los archivos de su sistema operativo se extenderían por toda la superficie del disco. Por lo tanto, para asegurarse de que los archivos del sistema operativo permanecen físicamente en el área de disco más rápida, debe crear una pequeña partición del sistema al comienzo de la unidad y distribuir el resto de la unidad en tantas particiones de datos como desee.
La latencia de búsqueda también depende en parte de cuán lejos deben moverse las cabezas, por lo que mantener todos los archivos pequeños algo cerca uno del otro también tiene una ventaja en las unidades giratorias.
Esta práctica ha perdido toda su razón con la llegada del almacenamiento SSD.
fuente
Aquí hay algunas razones para hacer eso:
Esto podría presentar una ventaja, aunque imperceptible, por lo que podría ignorarse, ya que realmente no hace la diferencia. La respuesta de @ WooShell está más relacionada con el problema de rendimiento, a pesar de que todavía es descuidada.
Otra cosa a tener en cuenta es que, en caso de tener un SSD + HDD, es mucho mejor almacenar su sistema operativo en el SSD y todos sus archivos / datos personales en el HDD. Lo más probable es que no necesite el aumento de rendimiento de tener un SSD para la mayoría de sus archivos personales y las unidades de estado sólido de nivel de consumidor generalmente no tienen mucho espacio en ellas, por lo que preferiría no intentar llenarlo con archivos personales .
Describió algunas de las razones por las que se hace. Y sí, sigue siendo válido, aunque ya no es una buena práctica como parece. Los inconvenientes más notables son que los usuarios finales tendrán que seguir dónde las aplicaciones sugieren instalar sus archivos y cambiar esa ubicación (posible durante casi cualquier instalación de software, especialmente si la instalación experta / avanzada es una opción) para que la partición de arranque no ' t se llenan, ya que el sistema operativo necesita actualizarse a veces, y otra desventaja es que al copiar archivos de una partición a otra, en realidad necesita copiarlos, mientras que si estaban en la misma partición, simplemente actualiza el MFT y los metadatos no necesitan volver a escribir los archivos completos.
Desafortunadamente, algunos de estos pueden introducir más problemas:
Para evitar el problema que tiene, necesita:
Tampoco estoy diciendo que tener múltiples particiones con una pequeña primaria sea la mejor idea. Todo depende del propósito del sistema, y aunque presenta una mejor manera de organizar sus archivos, viene con sus desventajas, que en los sistemas Windows en los días actuales, son más que los profesionales.
Nota: Y como usted mismo mencionó, mantiene seguros los datos que están en particiones separadas en caso de que ocurra una falla en la partición de arranque.
fuente
Soy desarrollador de software, pero también he pasado tiempo haciendo trabajos de TI "regulares" / administrativos. Normalmente mantengo el sistema operativo y las aplicaciones en la unidad C :, y mis archivos personales en la unidad D :. No es necesario que sean unidades físicas separadas, pero actualmente estoy usando una SSD relativamente pequeña como mi unidad de "sistema" (C :) y una unidad de disco "tradicional" (es decir, con platos magnéticos giratorios) como mi "hogar". conducir (D :).
Todos los sistemas de archivos están sujetos a fragmentación. Con los SSD esto es básicamente un problema, pero sigue siendo un problema con las unidades de disco tradicionales.
He descubierto que la fragmentación puede degradar significativamente el rendimiento del sistema. Por ejemplo, descubrí que una compilación completa de un gran proyecto de software mejoró en más del 50% después de desfragmentar mi disco, y la compilación en cuestión tomó la mayor parte de una hora, por lo que esta no fue una diferencia trivial.
Manteniendo mis archivos personales en un volumen separado, he encontrado:
Lo he observado en varias generaciones de PC, con varias versiones de Windows.
(Como señaló un comentarista, esto también tiende a facilitar la realización de copias de seguridad).
Debo señalar que las herramientas de desarrollo que uso tienden a generar una gran cantidad de archivos temporales, que parecen ser un contribuyente significativo al problema de fragmentación. Por lo tanto, la gravedad de este problema variará según el software que utilice; Es posible que no note una diferencia, o una gran diferencia. (Pero hay otras actividades, por ejemplo, composición y edición de video / audio, que son intensivas en E / S y, dependiendo del software utilizado, pueden generar grandes cantidades de archivos temporales / intermedios. Mi punto es, no escribir esto como algo que solo afecta a una clase de usuarios).
Advertencia: con las versiones más recientes de Windows (desde 8 en adelante), esto se ha vuelto mucho más difícil, porque las carpetas de usuario en un volumen que no sea C: ya no son compatibles oficialmente. Puedo decirle que no pude realizar una actualización in situ de Windows 7 a Windows 10, pero YMMV (hay varias formas diferentes de [re] localizar una carpeta de usuario, no sé cuáles están afectadas) .
Una nota adicional: si mantiene dos volúmenes separados en una unidad tradicional, es posible que desee configurar un archivo de página en el volumen D:. Por las razones descritas en la respuesta de WooShell, esto reducirá el tiempo de búsqueda al escribir en el archivo de la página.
fuente
Respuesta corta: ya no más.
En mi experiencia (más de 20 años de trabajo de administración de TI), la razón principal de esta práctica (otras se enumeran a continuación) es que los usuarios básicamente no confiaban en Windows con sus datos y espacio en el disco duro.
Windows ha sido notoriamente malo en mantenerse estable con el tiempo, limpiar después de sí mismo, mantener la partición del sistema en buen estado y proporcionar un acceso conveniente a los datos del usuario. Por lo tanto, los usuarios prefirieron rechazar la jerarquía del sistema de archivos que proporcionaba Windows y rodar la suya propia. La partición del sistema también actuó como un gueto para negarle a Windows los medios para causar estragos fuera de sus límites.
RegClean
la propia utilidad de MS fue cancelada después del lanzamiento de Office 2007 que rompió las suposiciones sobre el registro en el que se basaba). El hecho de que muchos programas guardaran sus datos en lugares arbitrarios hizo que la separación de los datos del usuario y del sistema operativo fuera aún más difícil, lo que hacía que los usuarios también instalaran programas fuera de la jerarquía del sistema operativo.Por lo tanto, tener sus datos en el directorio raíz de una unidad separada fue visto como una estructura de datos más conveniente que la que proporcionó Windows.
Downloads
, para evitar la necesidad de navegar para ellos cada vezLas razones secundarias son:
C:\Users
a la unidad de datos. Mover un solo perfil o incluso soloDocuments
,Downloads
yDesktop
demostró ser inferior porque otras partes del perfil yPublic
también puede crecer sin control (ver la configuración de "configuración y datos separados" a continuación).fuente
Hace casi 2 décadas habría estado dominado por el rango de Windows 98 a XP, incluidos NT4 y 2000 en el lado de la estación de trabajo / servidor.
Todos los discos duros también serían almacenamiento magnético con cable PATA o SCSI, ya que los SSD cuestan más que la computadora, y SATA no existía.
Como dice la respuesta de WooShell, los sectores lógicos más bajos en el disco (fuera del plato) tienden a ser los más rápidos. Mis unidades de 1TB WDC Velociraptor comienzan a 215MB / s, pero bajan a 125MB / s en los sectores externos, una caída del 40%. Y esta es una unidad de disco de disco de 2.5 ", por lo que la mayoría de las unidades de 3.5" generalmente experimentan una caída aún mayor en el rendimiento, superior al 50% . Esta es la razón principal para mantener pequeña la partición principal, pero solo se aplica cuando la partición es pequeña en relación con el tamaño de la unidad.
La otra razón principal para mantener pequeña la partición era si usaba FAT32 como sistema de archivos, que no admitía particiones de más de 32 GB. Si estaba usando NTFS, las particiones de hasta 2TB eran compatibles antes de Windows 2000, luego hasta 256TB.
Si su partición era demasiado pequeña en relación con la cantidad de datos que se escribirían, es más fácil fragmentarla y más difícil de desfragmentar. De usted puede quedarse sin espacio como lo que le sucedió. Si tenía demasiados archivos en relación con la partición y los tamaños de clúster, la administración de la tabla de archivos podría ser problemática y afectar el rendimiento. Si está utilizando volúmenes dinámicos para redundancia, mantener los volúmenes redundantes tan pequeños como sea necesario ahorrará espacio en los otros discos.
Hoy en día las cosas son diferentes, el almacenamiento del cliente está dominado por unidades flash SSD o unidades magnéticas flash aceleradas. El almacenamiento es generalmente abundante y es fácil agregar más a una estación de trabajo, mientras que en los días de PATA, es posible que solo haya tenido una única conexión de unidad no utilizada para dispositivos de almacenamiento adicionales.
Entonces, ¿sigue siendo una buena idea o tiene algún beneficio? Eso depende de los datos que guarde y de cómo los administre. Mi estación de trabajo C: solo tiene 80 GB, pero la computadora en sí tiene más de 12 TB de almacenamiento, distribuidos en varias unidades. Cada partición solo contiene un cierto tipo de datos, y el tamaño del clúster coincide con el tipo de datos y el tamaño de la partición, lo que mantiene la fragmentación cerca de 0 y evita que el MFT sea excesivamente grande.
La reducción de tamaño es que hay espacio sin usar, pero el rendimiento aumenta más de lo que compensa, y si quiero más almacenamiento, agrego más unidades. C: contiene el sistema operativo y las aplicaciones de uso frecuente. P: contiene aplicaciones menos utilizadas y es un SSD de 128 GB con una calificación de durabilidad de escritura menor que C :. T: está en un SSD SLC más pequeño y contiene archivos temporales del usuario y del sistema operativo, incluida la memoria caché del navegador. Los archivos de video y audio se almacenan magnéticamente, al igual que las imágenes de máquinas virtuales, las copias de seguridad y los datos archivados, estos generalmente tienen un tamaño de clúster de 16 KB o más, y las lecturas / escrituras están dominadas por el acceso secuencial. Ejecuto desfragmentación solo una vez al año en particiones con un alto volumen de escritura, y me lleva unos 10 minutos hacer todo el sistema.
Mi computadora portátil solo tiene una SSD de 128 GB y un caso de uso diferente, por lo que no puedo hacer lo mismo, pero aún así me separo en 3 particiones, C: (80 GB OS y programas), T: (8 GB temp) y F: ( 24 GB de archivos de usuario), que hace un buen trabajo al controlar la fragmentación sin desperdiciar espacio, y la computadora portátil será reemplazada mucho antes de que se quede sin espacio. También facilita mucho la copia de seguridad, ya que F: contiene los únicos datos importantes que cambian regularmente.
fuente
Solía trabajar en TI, y esto es lo que sé y recuerdo.
En el pasado, como han dicho otros, hubo un beneficio real al tener una pequeña partición C en el inicio del disco. Incluso hoy en algunas computadoras portátiles de gama baja esto podría ser cierto. Esencialmente, al tener una partición más pequeña, tiene menos fragmentación y al mantenerla al comienzo del disco, es mejor buscar y así leer los tiempos. Esto todavía es válido hoy en día con computadoras portátiles (generalmente) y discos duros "verdes" más lentos.
Otro gran beneficio que todavía uso hoy en día es tener "datos" y "os" en unidades separadas, o si no puedo manejar esas particiones separadas. No hay un aumento real de la velocidad si se usa SSD, o incluso unidades magnéticas más rápidas, pero hay una gran opción de "solución fácil" cuando el SO finalmente se acumula. Simplemente cambie la unidad o reescriba esa partición. Los datos del usuario están intactos. Cuando se configura correctamente, entre una unidad D: y "Perfiles móviles", la reinstalación de Windows no es un problema de 5 minutos. Es un buen primer paso para un técnico de nivel 1.
fuente
Aquí hay una razón, pero no creo que sea una razón válida para las computadoras (modernas) de hoy.
Esto se remonta a Windows 95/98 y XT. Probablemente no se aplique a Vista y posteriores, pero era una limitación de hardware, por lo que ejecutar un sistema operativo más nuevo en hardware antiguo aún tendría que lidiar con la limitación.
Creo que la limitación fue de 2 gb, pero podría haber habido una limitación de 1 gb (o quizás otras) en un momento anterior.
El problema era (algo así): la partición BOOT tenía que estar dentro de los primeros 2 gb (quizás 1 gb antes) del espacio físico en la unidad. Podría haber sido que 1) el INICIO de la partición de ARRANQUE tenía que estar dentro de los límites del límite, o, 2) la PARTIDA COMPLETA de arranque tenía que estar dentro de los límites del límite. Es posible que en varios momentos, cada uno de esos casos se aplicara, pero si se aplicó el n. ° 2, probablemente duró poco, así que supondré que es el n. ° 1.
Entonces, con el # 1, el INICIO de la partición BOOT tenía que estar dentro de los primeros 2 gb de espacio físico. Esto no impediría hacer 1 gran partición para el arranque / sistema operativo. Pero, el problema era el arranque dual / múltiple. Si alguna vez parecía posible querer iniciar dual / multi la unidad, tenía que haber espacio disponible debajo de la marca de 2 gb para crear otras particiones de arranque en la unidad. Como puede que no se sepa en el momento de la instalación si la unidad alguna vez necesitaría otra partición de arranque, por ejemplo, Linix, o alguna partición de depuración / solución de problemas / recuperación de arranque, a menudo se recomendaba (y a menudo sin saber por qué) instalar en un "pequeño" "Partición de arranque del sistema operativo.
fuente
Me pregunto si su departamento de TI de hace décadas estaba preocupado por el respaldo. Dado que C: es una partición de arranque / SO, sería típico usar algún tipo de copia de seguridad de imagen, pero para una partición de datos / programa, se podría usar una copia de seguridad incremental de archivo + carpeta. La reducción del espacio utilizado en la partición C: reduciría el tiempo y el espacio necesarios para hacer una copia de seguridad de un sistema.
Un comentario sobre mi uso personal de la partición C: Tengo un sistema de arranque múltiple que incluye Win 7 y Win 10 y no tengo ningún sistema operativo en la partición C: solo los archivos de arranque. Utilizo la copia de seguridad de la imagen del sistema de Windows para Win 7 y Win 10, y la copia de seguridad de la imagen del sistema de Windows siempre incluye la partición C: (arranque), además de la partición de Win 7 o Win 10, por lo que este es otro escenario en el que se reduce la cantidad de datos y programas en la partición C: reduce el tiempo y el espacio necesarios para una copia de seguridad de la imagen del sistema (o restaurar si es necesario).
Dejo esta sección en mi respuesta debido a los comentarios a continuación.
Dado que mi sistema es de arranque múltiple, reiniciar en un sistema operativo diferente hace que la copia de seguridad de las particiones de datos / programas sea más sencilla ya que no hay actividad en las particiones mientras se realizan copias de seguridad. Escribí un programa de copia de seguridad simple que hace una copia de carpeta + archivo junto con información de seguridad y análisis, pero no funciona para las particiones del sistema operativo Win 7 o Win 10, por lo que estoy usando la copia de seguridad de la imagen del sistema para C ;, Win 7 y Win 10 particiones del sistema operativo.
fuente
No, no con Windows y sus principales paquetes de software insistiendo en los vínculos con el Sistema: a pesar de instalarlos en Programas :. (Es una necesidad institucionalizada la forma en que se construyen la mayoría de los sistemas operativos). Datos: el volumen tiene sentido, pero una unidad extraíble separada para sus datos (o NAS, o copias de seguridad selectivas o incrementales en una unidad extraíble) tiene aún más sentido.
Particionar para sistemas multi-OS también tiene sentido, pero cada partición lo obliga a seleccionar un límite superior de almacenamiento rígido. En general, es mejor con unidades separadas, incluso en este caso.
Y hoy, las máquinas virtuales y las unidades en la nube complementan muchas de estas opciones.
fuente
Hay una razón particular: el uso de instantáneas de volumen.
Una instantánea de volumen es una copia de seguridad de toda la partición. Cuando restaura a partir de este tipo de copia de seguridad, reescribe toda la partición, revertiendo efectivamente el sistema al estado anterior.
Un administrador del sistema puede crear tales instantáneas de forma regular en preparación para cualquier tipo de fallas de software. Incluso pueden almacenarlos en otra partición de la misma unidad. Es por eso que desea que la partición del sistema sea relativamente pequeña.
Al usar este esquema, se alienta a los usuarios a almacenar sus datos en la unidad de red. En caso de problemas de software, un administrador del sistema puede simplemente revertir el sistema al estado de funcionamiento. Eso sería extremadamente eficiente en tiempo comparado con investigar manualmente las razones del problema y solucionarlo.
fuente
He estado programando durante casi medio siglo. Otra respuesta dice histórico y otra respuesta larga dice Múltiples discos físicos .
Quiero enfatizar que lo más probable es que múltiples discos físicos hayan comenzado la recomendación. Hace más de medio siglo, cuando no había particiones, era extremadamente común usar un disco físico separado para el sistema. La razón principal de esto es el movimiento físico de las cabezas y el giro de las unidades. Esas ventajas no existen para las particiones cuando la unidad física se usa a menudo para otras cosas.
También tenga en cuenta que Unix separa el sistema y los datos en particiones separadas. Hay muchas buenas razones para hacerlo, como se explica en muchas otras respuestas, pero para el rendimiento, las unidades físicas separadas son la justificación principal.
fuente
La razón por la que solíamos hacer 2 particiones se debía a virus. Algunos virus solían sobrescribir el sector de arranque y el comienzo del disco.
Las copias de seguridad en las computadoras de los usuarios solían reducirse a una copia de todo el programa en un disquete. (En realidad, no es una copia de seguridad)
Entonces, cuando un virus "se comió" el comienzo del disco, generalmente solo el sistema tuvo que ser reinstalado.
Y si no había copias de seguridad, la recuperación de datos era más fácil si la segunda partición estaba intacta.
Entonces, si tiene copias de seguridad, este motivo no es válido.
fuente