¿Cuánto del uso eléctrico de una GPU probablemente se convierta en un aumento de la temperatura del aire?

20

Estoy tratando de encontrar una buena estimación aproximada de cuánto del uso de potencia máxima de una tarjeta gráfica se convierte en aire caliente.

Digamos que una tarjeta gráfica está clasificada para usar X vatios con el uso máximo. ¿Cuánto de eso se libera como calor en el aire a través de la configuración de enfriamiento y cuánto no? (Si no es así, ¿a dónde va?

Sí, sé que hay muchas variables aquí, solo estoy buscando una estimación de alguien que entienda mejor que yo. Estoy usando específicamente esta GPU como ejemplo (Radeon 6990 375 vatios máximo)

KDecker
fuente
22
Todo, eventualmente.
Ignacio Vázquez-Abrams
2
+1 porque una vez estuve en una reunión diseñando un nuevo laboratorio de computación e instalaciones, la gente argumentó en contra de mis requisitos de enfriamiento porque "no toda esa electricidad se convierte en calor".
Ben Jackson
Su único va a usar 375 vatios cuando su programa trabaje la tarjeta muy duro ...
Spoon
La única parte que realmente se escapa es la RFI, e incluso algo de eso calentará las cosas localmente.
Chris Stratton

Respuestas:

24

Mis números pueden no ser exactamente exactos, pero diría eso sobre

99.99% de la energía que ingresa a la GPU, e incluso la CPU se convierte en calor.

El otro .01% es la señal real que sale de la GPU a su pantalla.

El trabajo de la GPU es tomar muchos datos y procesarlos, lo que requiere muchos cálculos. Estos cálculos consumen energía, producen calor y, finalmente, un resultado.


Ahora es importante tener en cuenta que si bien esto dice que es una tarjeta de 375 W, no consumirá 375 W todo el tiempo que esté en funcionamiento. Al igual que su CPU, su GPU solo hará todo lo que necesite y puede reducir <100W.

Simplemente navegando por el escritorio de Windows, la tarjeta no funciona casi nada, y se dibujará casi nada; pero inicie Crysis, y su frecuencia se agota al máximo y la tarjeta comenzará a extraer su calificación máxima.

Matt Clark
fuente
77
Y a su vez, ese 0.01% de la energía en la señal es consumida por la pantalla, también se convierte en calor, solo en un lugar diferente.
Li-aung Yip
Sin embargo, parte de esto se convierte en luz.
rjp
10
@RJP ¿La energía que va al panel? No, no lo hace. Se disipará en resistencias de terminación en el chip receptor HDMI o DVI. A partir de ahí, la señal se decodifica, se almacena en un búfer y finalmente se envía a los controladores del panel, donde se expulsa a la matriz del panel. Sin embargo, la potencia original de la tarjeta gráfica se pierde básicamente por completo en las resistencias de terminación, y lo poco que queda no sale del circuito del receptor TMDS.
alex.forencich
44
Sí, de alguna manera logré olvidar que la pantalla no funciona con la tarjeta gráfica. Ese sería un diseño realmente terrible.
rjp
12
Incluso la / luz / finalmente se convierte en calor, cuando golpea un objeto en su casa y lo calienta un poco. El universo marcha hacia la máxima entropía, que generalmente implica que todas las formas de energía se disipan como calor ... eventualmente .
Li-aung Yip
11

Básicamente todo se va al calor. Dentro del chip hay miles de millones de pequeños transistores, cada uno actúa como un interruptor realmente pequeño. Estos transistores están conectados para formar varias funciones lógicas. Debido a la geometría de los transistores, todos tienen pequeñas capacitancias parisíticas. Cada vez que la lógica cambia de estado, que es en promedio la misma velocidad que el reloj, estas capacidades deben cargarse y descargarse. La corriente para hacer esto tiene que pasar a través de los transistores, que tienen cierta resistencia. La resistencia y el flujo de corriente significan una caída de voltaje, y voltios por amperios es potencia. Cada vez que el reloj gira, se consume energía cargando y descargando estos condensadores. Esto sucede en cada circuito integrado: su GPU, su CPU, su RAM, su controlador de disco duro, su teléfono celular, etc. Es por eso que cuando overclockea su CPU o GPU, Utiliza más energía y genera más calor. Esta es también la razón por la cual su computadora portátil variará su velocidad de reloj sobre la marcha para ahorrar energía en lugar de dejar que la CPU funcione inactiva.

En términos de cuánto no se calienta, no es mucho. Un vatio o dos para el ventilador. Tal vez. Quizás cien milivatios para los LED, si la tarjeta tiene muchos. Un par de milivatios se mueven sobre el bus expreso PCI, para absorberse en las terminaciones en el otro extremo del bus. Se envían un par de milivatios más a través del puerto DVI o HDMI para absorberse en las terminaciones en el otro extremo. Con todo, con un TDP de 375 vatios, menos del 0.1 por ciento de la energía proveniente de la fuente de alimentación no se disipa directamente en forma de calor.

alex.forencich
fuente
Y el resto se disipa indirectamente como calor, ya que los fotones y los fonones son absorbidos por otros materiales.
Ignacio Vázquez-Abrams
1
Bueno, probablemente podría argumentar sobre mucha de la electricidad que consumimos en general. Bombillas, estufa, microondas, calentador de agua, refrigerador, equipo de música, televisión, etc. Sin embargo, la lavadora y la secadora pueden ser una historia ligeramente diferente.
alex.forencich
1

Todo se convierte en aire caliente, excepto la pequeña cantidad de luz generada por cualquier LED. No hay otro lugar para que la energía vaya.

Joe Hass
fuente
1
@BumSkeeter: toda la energía eléctrica consumida por un IC se libera como calor.
Ignacio Vazquez-Abrams
1
Toda la energía eléctrica suministrada a la GPU se "consume". La pregunta es en qué forma de energía se convierte. Prácticamente todo se convierte en calor. Por supuesto, una GPU con una potencia de 375 W generalmente puede consumir mucho menos que eso.
Joe Hass
1
En el contexto, estoy tratando de usar este valor para que la GPU se esté agotando (minería de bitcoin). Estoy tratando de imaginar (por diversión) la viabilidad de calentar una casa con tarjetas gráficas.
KDecker
2
@BumSkeeter, usar un circuito para calentar una habitación es casi tan eficiente como un calentador eléctrico. Dicho esto, si su propósito era minar en lugar de calentar una habitación, la GPU ya no es viable. Debe usar FPGA o ASIC para ganar dinero con su factura de electricidad. O mejor aún, no caigas en la estafa.
travisbartley
1
@ trav1s Soy muy consciente de eso. Además, no es una estafa.
KDecker