¿Por qué el hardware se vuelve más lento con el tiempo?

38

¿Por qué el hardware se vuelve más lento con el tiempo? He sido propietario de una PC desde 1990 y cada computadora que he tenido en mi vida se volvió muy, muy lenta después de 3-4 años (incluso con una reinstalación completa del sistema). Es el caso de las PC con Windows. También es el caso con Apple Hardware. ¿Por qué está pasando esto? ¿Se puede evitar esto?

Alexey Kulikov
fuente
17
Las hadas de la computadora se aburren y van a un lugar más rápido :(
Phoshi
1
@Phoshi hadas de la computadora? Pensé que eran gremlins comiendo ciclos de CPU.
alex
2
Las hadas mantienen el ciclo de la CPU mejor. Es una batalla constante.
Phoshi el
11
hadas de la computadora? Bah. Es un hecho bien conocido que los hámsters más viejos no corren tan rápido como los más jóvenes. tienes que abrir la caja e intercambiar un hámster fresco de vez en cuando.
quack quijote
2
La pregunta más importante es qué hacer con los hámsters usados. Llamé a los dos últimos "Más barato que" y "Comida para gatos", pero no estoy convencido de que sea el mejor método de eliminación.
quack quijote

Respuestas:

32

A veces es el hardware, especialmente con las computadoras portátiles. Los procesadores modernos tienen circuitos para protegerlos del sobrecalentamiento y reducirán deliberadamente la velocidad de la CPU si la temperatura del núcleo se calienta demasiado (o también para ahorrar energía cuando la demanda es baja y está funcionando con baterías: Intel llama a la función "SpeedStep" en sus procesadores). Si nota que su ventilador está funcionando todo el tiempo o que la máquina se calienta demasiado alrededor de la salida del ventilador de enfriamiento, las "vías respiratorias" de su computadora pueden haberse obstruido con polvo.

Tenía un Dell Latitude que funcionaba como nuevo después de abrirlo y quitar una "esponja" de polvo de aproximadamente un cuarto de pulgada entre el ventilador y el disipador de calor. Dell en realidad tiene instrucciones de servicio descargables en su sitio web que explican todos los pasos para abrir la máquina y acceder a este tipo de servicio. Si no te sientes cómodo con esto, probablemente tengas un amigo técnico que te ayude. ¡Definitivamente vale la pena el riesgo si está planeando deshacerse de la máquina de otra manera!

Si cree que esto podría estar sucediendo en su máquina, intente descargar una utilidad como "SpeedFan" que le permite verificar la temperatura de su CPU y de otros componentes. Con esta aplicación, puede graficar las temperaturas cuando enciende la máquina por primera vez. Si comienzan a subir rápidamente y nunca parecen disminuir, puede apostar que el enfriamiento es un problema. En mi caso, también utilicé una aplicación gratuita llamada "CS Fire Monitor" para mostrarme la velocidad real de mi procesador y descubrí que una vez que se calentaba, bajaba a menos de la mitad. Hay muchos buenos programas gratuitos que le mostrarán este tipo de información; simplemente Google "CPU Temp Freeware" o "CPU Speed ​​Freeware" o algo por el estilo y encontrará todo tipo de opciones.

¡Con suerte, esto evitará que algunas personas reemplacen o desechen hardware decente que solo necesita un poco de terapia respiratoria!

Todd Corson
fuente
38

Hay algunos efectos aquí:

  1. Su percepción de lo rápido que debe ser la computadora está cambiando. Cuando obtiene hardware nuevo por primera vez, tiene algo concreto con lo que compararlo: el hardware antiguo. Esto le da una medida empírica de la mejora de la velocidad. A medida que pasa el tiempo, su memoria de la lentitud del antiguo hardware se desvanece, solo tiene lo rápido que fue comparar el hardware actual recientemente.
  2. Surgen nuevas versiones de software que agregan nuevas características para ampliar la funcionalidad o hacer uso del nuevo hardware. Este será, por definición, un programa más grande que antes, que tomará más recursos y hará que su hardware funcione un poco más lento.
  3. Acumulación de controladores, programas / tareas que se ejecutan en segundo plano, etc. Cada tarea adicional de controlador / segundo plano requiere un poco más de recursos: espacio en el disco duro, memoria, ciclos de CPU, etc. Si bien cada uno no es grande, el efecto es acumulativo. La gente espera que los programas modernos se actualicen a sí mismos, por lo que hay tareas adicionales en ejecución que usted no conoce. Cuanto más tiempo tenga la computadora, más programas tendrá instalados.

Cuando se toman juntos dan la impresión de que el hardware se está ralentizando.

Puede haber otros efectos debido al desgaste del hardware (fragmentación del disco, latencia de memoria) también.

ChrisF
fuente
10
Esto no es verdad. Por ejemplo, me filmé usando mi nuevo PowerBook G4 un par de días después de que llegó. No tuve que esperar ni un segundo para que el Finder se abriera y hiciera las tareas habituales de administración de archivos. El promedio de carga de la CPU fue inferior al 2%. Para probar mi punto, reinstalé TIGER formateando completamente el disco duro. Todavía obtengo una carga promedio de CPU del 30% y tengo que esperar 3-4 segundos antes de que se complete cualquier operación del buscador.
Alexey Kulikov
1
@Alexey Kulikov - ChrisF no dijo "Todo está en tu cabeza" fue la única razón por la que el hardware se desaceleró. El desgaste del hardware también podría causar lo que está describiendo. Hay tantas variables que es difícil decir exactamente por qué.
J. Polfer
1
¿Su reinstalación completa incluyó la aplicación de actualizaciones? En ese caso, no es una verdadera comparación de manzanas con manzanas.
Chris Nava el
55
@ Chris - "Manzanas a Manzanas", jajaja. Juego de palabras previsto?
Moshe
3
@ Moshe, desearía poder decir Sí, pero nunca se me pasó por la cabeza. :-( En serio, los parches (especialmente los parches de seguridad) a menudo tienen un impacto en el rendimiento, por lo que probar un sistema completamente parcheado frente a lo que recuerdas de años atrás está plagado de variables no contadas.
Chris Nava
14

Cuando ejecuté puntos de referencia (tanto triviales como bogomips y uno más serio como Dhrystone y Whetstone ) en hardware de cinco a ocho años, siempre descubrí que arrojaba los mismos resultados que cuando era nuevo. (Siempre en Linux y Mac OS boxen, por cierto).

Tengo menos experiencia con discos duros, pero probé un disco SCSI2 rápido y ancho unos cinco años después (con hdparm) y obtuve respuestas comparables a las especificaciones originales.

Entonces, creo que es principalmente, como han dicho otros, una combinación de nuevas expectativas y software más pesado.

Dicho esto, actualmente tengo un PowerBook G4 que podría utilizar la prueba, ya que seguro se siente ahora más lento de lo que solía. La sugerencia anterior de que la aceleración del reloj puede entrar en juego si el sistema de enfriamiento se ensucia es buena.

dmckee
fuente
12

Ley de la página ;)

La ley de Wirth, también conocida como la ley de Page, la ley de Gates y la ley de May, es un adagio informático que establece que el software se vuelve más lento más rápido que el hardware.

sYnfo
fuente
3
+1 No es el hardware, sino que el software es más lento
Ivo Flipse
Tuve esto como una bofetada cuando obtuve la banda ancha (y así pude descargar un nuevo software). La PC se volvió mucho más lenta y rápida, y nada ayudó :(
Phoshi
66
jaja, la Ley de Gate también se menciona allí: "... la velocidad del software comercial generalmente disminuye en un cincuenta por ciento cada 18 meses, negando así todos los beneficios de la Ley de Moore".
Bratch
6

Algunas ralentizaciones son causadas por la fragmentación del disco duro , cuya cura es la desfragmentación .
esto se define como:

La fragmentación del sistema de archivos, a veces denominada envejecimiento del sistema de archivos, es la incapacidad de un sistema de archivos para diseñar datos relacionados secuencialmente (contiguamente), un fenómeno inherente en los sistemas de archivos respaldados por almacenamiento que permiten la modificación en el lugar de sus contenidos. Es un caso especial de fragmentación de datos. La fragmentación del sistema de archivos aumenta el movimiento o las búsquedas de la cabeza del disco, que se sabe que dificultan el rendimiento. La corrección a la fragmentación existente es reorganizar los archivos y liberar espacio nuevamente en áreas contiguas, un proceso llamado desfragmentación.

En Windows hay otra razón, la del Registro de Windows

El Registro de Windows es una base de datos que almacena configuraciones y opciones para los sistemas operativos Microsoft Windows. Contiene información y configuraciones para hardware, software de sistema operativo, la mayoría de los software de sistemas no operativos y configuraciones por usuario. El registro también proporciona una ventana al funcionamiento del núcleo, exponiendo información de tiempo de ejecución, como contadores de rendimiento y hardware actualmente activo.

Con el tiempo, el tiempo de registro acumula basura y también debe limpiarse y optimizarse.

Otra explicación es que las versiones más nuevas del sistema operativo suelen ser más hinchadas y más lentas. Esto significa que solo instalando la última versión de O / S o parches, puede que después de unos años de repente note que su computadora ahora es más lenta y es hora de invertir en un nuevo hardware que pueda soportar eficientemente los requisitos de la última versión de su sistema operativo.

harrymc
fuente
suponiendo que una "nueva instalación" incluye formatear la unidad del sistema, ninguno de estos afecta a una nueva instalación del sistema operativo en hardware antiguo.
quack quijote
El efecto de la fragmentación también depende en gran medida del sistema de archivos que esté utilizando. Algunos sistemas de archivos (con FAT) sufren mucho , y otros sufren muy poco. Tampoco todos los sistemas operativos utilizan una base de datos centralizada de crecimiento infinito para almacenar varios conmutadores y opciones.
dmckee
Voy a arriesgarme aquí y declarar en 20 años de uso intensivo de la computadora que nunca he visto un sistema acelerarse notablemente después de que un disco se haya fragmentado. ¿Hay alguna evidencia objetiva para contradecir por experiencia?
Matthew Lock
1
Depende de lo que estés haciendo. revisar mi unidad de datos que no es del sistema (por ejemplo, realizar cálculos de md5) es mucho más rápido cuando todos los archivos en la unidad están desfragmentados que cuando los archivos de 1 + GB están dispersos en más de 200 fragmentos. Si no está viendo la aceleración del sistema después de una desfragmentación, quizás los archivos de su sistema no estaban fragmentados para empezar.
quack quijote
Para agregar al comentario de Matthew, tampoco he visto una computadora acelerar después de que se haya limpiado el registro. Para los cientos de miles de entradas allí, eliminar un par de cientos no hará ninguna diferencia.
Richard
4

Te acostumbras a la velocidad y ahora ya no se siente rápido.

Por ejemplo, tuve un cliente que tenía una rutina (que consideraban como tiempo de inactividad) que tomó más de una hora en una computadora vieja y cuando actualizaron su computadora, el proceso tomó cinco minutos, lo que los hizo muy felices por un tiempo.

Avancemos unos años y ahora se quejan de que esta rutina lleva cinco minutos. Y cada vez que se quejan, realmente parecen haberse olvidado del tiempo que les llevó una hora.

sgmoore
fuente
2

Hay una cierta cantidad de problemas de percepción, pero si realmente está midiendo una reducción en el rendimiento, buscaría partes móviles en el sistema.

"Partes móviles", pregunta, "¿qué partes móviles?"

Dos categorías fáciles de verificar: ventiladores y unidades de disco. Los ventiladores son obvios, pero además del ventilador en sí, asegúrese de que el flujo de aire y el enfriamiento no estén obstruidos para garantizar que las temperaturas de los componentes interiores también estén donde estaban cuando la caja era nueva. Los discos son un poco más sutiles, pero un disco deteriorado puede reducir drásticamente el rendimiento mientras parece funcionar. Vea si los puntos de referencia del disco coinciden con el nuevo rendimiento, o si el recuento de errores aumenta drásticamente.

Si bien no se mueven realmente, son el equivalente moral: conectores de cable. Cualquier extremo desmontable de cada cable. Desenchufe, asegúrese de limpiar, vuelva a enchufar y asegure bien.

mpez0
fuente
1

Quizás sea puramente tu percepción.

Hace 3-4 años, era un hardware nuevo y brillante que era más rápido que la generación anterior de hardware, por lo tanto, se sentía muy rápido.

En 3-4 años desde entonces, sin duda ha utilizado computadoras con un mejor hardware, por lo que incluso si realiza una instalación limpia en la máquina anterior, sus experiencias con el hardware más nuevo se irán con una impresión mediocre de la máquina anterior.

¿O tiene evidencia empírica de que la máquina realmente funciona más lentamente?

JRT
fuente
Sí, hay evidencia: me filmé usando mi nuevo PowerBook G4 un par de días después de que llegó. No tuve que esperar ni un segundo para que el Finder se abriera y hiciera las tareas habituales de administración de archivos. El promedio de carga de la CPU fue inferior al 2%. Para probar mi punto, reinstalé TIGER formateando completamente el disco duro. Todavía obtengo una carga promedio de CPU del 30% y tengo que esperar 3-4 segundos antes de que se complete cualquier operación del buscador.
Alexey Kulikov
Bien, mi otro pensamiento sería que con el tiempo el disco duro ha desarrollado sectores defectuosos y con eso vendría una sobrecarga de tener que volver a leer los datos que fallaron las verificaciones de integridad. Esto ocurriría incluso después de un formato completo.
JRT
¿Cuánto tiempo transcurrió entre el momento en que se filmó utilizando su nuevo PowerBook y el momento en que reinstaló TIGER?
J. Polfer
4 años. Siempre tuve la impresión de que el hardware se estaba desgastando, y hace un par de días encontré un screencast que grabé hace 4 años. Así que fui por el experimento, y listo, todo hecho.
Alexey Kulikov
1

Creo que algunas actualizaciones de controladores en estos días también pueden actualizar el firmware en el dispositivo relacionado. También hay posibles actualizaciones de microcódigo de CPU, aunque es raro.

He visto algunas herramientas de diagnóstico / referencia populares que afirman que las cosas funcionaron a velocidad normal, pero hubo algún tipo de problema de hardware / controlador de bajo nivel que hizo que el puntero del mouse se arrastrara y saltara. En ese momento no sabía cómo medir la latencia de DPC: esa herramienta probablemente habría indicado que había un problema.

El punto es que es posible que las cosas se ralenticen de una manera que haga que las cosas se sientan más lentas pero no se muestre en el tipo de herramientas que usan los usuarios casuales de PC.

Si alguien quiere profundizar en esto, creo que deberían tener 2 computadoras idénticas, la otra nunca se conecta a la red, nunca recibe actualizaciones o se instalan nuevos controladores. Y cronometra ambas computadoras usando un temporizador externo / tiempo de verificación de NTP solo para estar seguro. - y después de 4 años, vuelva a medir el tiempo y, si hay alguna diferencia, clone el disco de la computadora no conectada a la conectada y vuelva a intentarlo. Y verifique cualquier cambio de versión de firmware, etc. edite: Y cuando digo "tiempo" me refiero a cronometrar alguna tarea personalizada, sin usar el punto de referencia existente. Los proveedores de GPU y CPU han sido sorprendidos jugando a puntos de referencia conocidos según Anandtech y algunos otros sitios en los últimos años que he leído.

Cobarde anónimo
fuente
0

En realidad, este no es un problema técnico, sino más bien un problema del cerebro humano. Esto puede sorprenderte, pero déjame explicarte. Tengo una buena base para lo que digo.

Parte del problema es cómo se aplican las actualizaciones de software y los parches, pero ese no es el núcleo del problema, no creo.

Las máquinas de hardware se han vuelto significativamente más rápidas a lo largo de los años, pero la capacidad del software para cargarlo ha aumentado a un ritmo aún más rápido, lo que da la percepción y la realidad de que algunas cosas son más lentas, tal como son.

Por ejemplo, mi primera caja Z-80 tenía una velocidad de reloj de 1 mega hertz. Ahora mi plataforma de desarrollo funciona a 2.66 ghz, o más de 2000 veces más rápido. No recuerdo exactamente, pero todo el CPM cabe en unos 16kb. Ahora Windows es quién sabe qué tan grande, pero mucho, mucho más grande. Utiliza muchas capas de abstracción que hacen cosas increíbles de una manera más general, pero estas capas afectan el rendimiento.

Déjame volver al cerebro humano. Lo que se entiende bien es que los ingenieros de software durante muchos años han dicho y creído con alguna buena razón, que el hardware se volvería cada vez más rápido y, por lo tanto, el software no necesitaba ser cuidadoso con los problemas de optimización. Entonces los programadores hicieron cosas para hacer que las cosas funcionen y rápidamente a costa de la velocidad, ... pensando que la gente del hardware se encargaría de ese problema. Por lo tanto, las actualizaciones y los parches se realizan pensando que son temporales, es decir, a corto plazo.

Es: a corto plazo, micro pensamiento, a largo plazo, macro problema.

Hace muchos años leí un libro interesante donde un par de científicos expusieron este problema de pensamiento humano a corto plazo versus a largo plazo, e hicieron algunos experimentos en una amplia gama de humanos para ver cómo hacen estas compensaciones. Su libro es New World New Mind, y los autores son Paul Ehrlich y Robert Ornstein. Lo pondría como el libro más importante que he leído en los últimos 20 años porque proporcionó un marco sólido para resolver el problema.

Lo que notaron fue que el cerebro humano evolucionó en un momento en que tomar decisiones a corto plazo tenía sentido. Vive el momento y el día, pero no pienses demasiado en el futuro. Simplemente no valió la pena. Entonces, nuestro sentido de las cosas que usamos a menudo para tomar decisiones es una parte muy antigua del cerebro y no se adapta bien a muchos problemas modernos. Y el cerebro no ha tenido un tiempo realista para evolucionar, ya que el mundo ha cambiado rápidamente con el crecimiento de la población y el impacto de la tecnología en las cosas.

Lo que descubrieron Ehrlich y Ornstein del profesor fue que los doctores muy inteligentes y bien educados, pero también los conserjes, cometieron los mismos errores cuando se les presentaron problemas a corto y largo plazo. No es algo que generalmente pensamos que sea el caso.

Un ejemplo muy bueno y convincente de cómo se está desarrollando este mismo problema en el mundo de hoy, no tiene que ver con el entorno de hardware, pero es el hermano mayor de todo el maldito entorno en el que vivimos. Los humanos generalmente cometemos el error de vivir hoy, por el momento, pero la realidad es que el calentamiento global está sobre nosotros exactamente porque no lo hemos permitido o no hemos tomado medidas para enfrentarlo. Es la desaceleración del hardware, por el problema del software, de nuevo, pero en un contexto diferente.

Ornstein y Ehrlich sugirieron que podríamos ser capaces de tomar decisiones más correctas basando nuestra decisión no en nuestro instinto, sino en datos y estadísticas. Entonces, por ejemplo, si un ingeniero de software tenía estadísticas sobre qué tan rápido se hinchaba su software en relación con qué tan rápido se volvía el hardware, podría tomar mejores decisiones sobre qué incluir, qué omitir y cuánto optimizar los algoritmos. En otras palabras, si utilizaron datos reales para tomar decisiones, en lugar de su instinto.

Gracias por la buena pregunta A veces las preguntas simples son las mejores, creo. me dio la oportunidad de considerar esto desde un nuevo ángulo. Nunca antes había visto el paralelismo entre el problema del software de hardware en el contexto humano.

Vista elíptica
fuente
0

La mayoría de los puntos de referencia (si los hay) no son confiables para medir la rapidez del sistema operativo. A menos que el punto de referencia sea un sistema USB a USB que controle la interfaz de usuario de otra computadora, emulando ser un mouse / teclado, las rutas de ejecución serán completamente diferentes. La lentitud en las PC que conozco surge debido a las actualizaciones de controladores / seguridad que también pueden actualizar el firmware (y no sabes si la actualización de fw en el controlador persiste o no), por lo que la única comparación verdadera de manzanas con manzanas es comprar 2 computadoras y nunca conecte el otro a internet o actualice los controladores después de la primera instalación, pero consérvelo para una comparación posterior utilizando dicha herramienta de evaluación comparativa externa.

Comencé a sospechar de todos los puntos de referencia cuando encontré un caso en el que el punto de referencia estaba devolviendo "todos los números buenos", mientras que un problema de hardware hacía que el mouse se congelara y el sistema en realidad era apenas controlable, claramente los puntos de referencia no se ven afectados por algunos bajos nivelar cosas que pueden afectar, por ejemplo. rapidez y capacidad de control de la PC.

(Caso ligeramente diferente pero similar: a pesar de que el Q6600 se comparó con el mismo núcleo dual equivalente de Ghz, noté que la capacidad de respuesta era claramente menor. En aquel entonces, esto se explicaba porque el programador de Win-Vista no era bueno con 4 núcleos, el punto es que solo como la mayoría de los puntos de referencia que muestran que FPS no detectaría algunas pequeñas inquietudes que sentiría el usuario, los puntos de referencia de PC que utiliza la prensa tecnológica no miden cosas como "Interrumpir para procesar la latencia" y muestran las estadísticas de eso en lugar de solo un promedio)

editar: Y si está haciendo tal configuración con una PC de referencia intacta, si tiene una batería o alguna vez está encendida, el fabricante de hw podría hacer trampa ejecutando un LFO para obsoleto encubiertamente el hardware, por ejemplo. al ralentizar algunas operaciones que los puntos de referencia no comparan. Un punto de referencia de prensa de juego mejor de lo habitual sería ejecutar, por ejemplo. dosbox, emuladores, mediciones de latencia dentro de vmware / hyperv, ya que gravará la CPU de formas más complejas que de otra manera.

edit2: y si realmente quisieran, podrían colocar algo que envejezca o algún contador y condensador de potencia ultrabaja o una pequeña batería cargada en fábrica. Entonces, no importa si nunca enciende el dispositivo, podrían hacerlo más lento con el tiempo, pero este tipo de cosas podrían ser una responsabilidad si alguien lo encuentra, pero realmente no importaría a menos que esto fuera ilegal y las multas fueran suficientes para eliminarlos. de negocios.

Cobarde anónimo
fuente