Aquí puede ver una captura de pantalla de un pequeño programa C ++ llamado Triangle.exe con un triángulo giratorio basado en la API OpenGL.
Es cierto que es un ejemplo muy básico, pero creo que es aplicable a otras operaciones de tarjetas gráficas.
Tenía curiosidad y quería saber todo el proceso desde hacer doble clic en Triangle.exe en Windows XP hasta que pueda ver el triángulo girando en el monitor. ¿Qué sucede, cómo interactúan la CPU (que primero maneja el .exe) y la GPU (que finalmente muestra el triángulo en la pantalla)?
Supongo que participar en la visualización de este triángulo giratorio es principalmente el siguiente hardware / software, entre otros:
Hardware
- HDD
- Memoria del sistema (RAM)
- UPC
- Memoria de video
- GPU
- pantalla LCD
Software
- Sistema operativo
- API de DirectX / OpenGL
- Nvidia Driver
¿Alguien puede explicar el proceso, tal vez con algún tipo de diagrama de flujo para ilustración?
No debería ser una explicación compleja que cubra cada paso (supongo que eso iría más allá del alcance), sino una explicación que un técnico de TI intermedio puede seguir.
Estoy bastante seguro de que muchas personas que incluso se llamarían profesionales de TI no podrían describir este proceso correctamente.
fuente
Respuestas:
Decidí escribir un poco sobre el aspecto de programación y cómo los componentes se comunican entre sí. Tal vez arroje algo de luz sobre ciertas áreas.
La presentación
¿Qué se necesita para tener esa imagen única, que publicaste en tu pregunta, dibujada en la pantalla?
Hay muchas formas de dibujar un triángulo en la pantalla. Por simplicidad, supongamos que no se usaron buffers de vértices. (Un búfer de vértices es un área de memoria donde almacena coordenadas.) Supongamos que el programa simplemente le dijo a la tubería de procesamiento de gráficos sobre cada vértice individual (un vértice es solo una coordenada en el espacio) en una fila.
Pero , antes de que podamos dibujar algo, primero tenemos que ejecutar algunos andamios. Veremos por qué más tarde:
Entonces, ¿qué hizo eso?
Cuando escribe un programa que quiere usar la tarjeta gráfica, generalmente elegirá algún tipo de interfaz para el controlador. Algunas interfaces conocidas para el controlador son:
Para este ejemplo nos quedaremos con OpenGL. Ahora, su interfaz con el controlador es lo que le brinda todas las herramientas que necesita para que su programa se comunique con la tarjeta gráfica (o el controlador, que luego se comunica con la tarjeta).
Esta interfaz seguramente le dará ciertas herramientas . Estas herramientas toman la forma de una API a la que puede llamar desde su programa.
Esa API es lo que vemos que se usa en el ejemplo anterior. Miremos más de cerca.
El andamio
Antes de que realmente puedas hacer un dibujo real, tendrás que realizar una configuración . Tienes que definir tu ventana gráfica (el área que realmente se representará), tu perspectiva (la cámara en tu mundo), qué suavizado usarás (para suavizar los bordes de tu triángulo) ...
Pero no veremos nada de eso. Solo echaremos un vistazo a las cosas que tendrás que hacer en cada fotograma . Me gusta:
Borrar la pantalla
La canalización de gráficos no va a limpiar la pantalla para usted en cada cuadro. Tendrás que contarlo. ¿Por qué? Esta es la razón por:
Si no limpia la pantalla, simplemente dibujará sobre ella cada fotograma. Por eso llamamos
glClear
con elGL_COLOR_BUFFER_BIT
set. El otro bit (GL_DEPTH_BUFFER_BIT
) le dice a OpenGL que borre el búfer de profundidad . Este búfer se usa para determinar qué píxeles están delante (o detrás) de otros píxeles.Transformación
Fuente de imagen
La transformación es la parte donde tomamos todas las coordenadas de entrada (los vértices de nuestro triángulo) y aplicamos nuestra matriz ModelView. Esta es la matriz que explica cómo nuestro modelo (los vértices) se rotan, escalan y traducen (mueven).
A continuación, aplicamos nuestra matriz de proyección. Esto mueve todas las coordenadas para que se enfrenten a nuestra cámara correctamente.
Ahora nos transformamos una vez más, con nuestra matriz Viewport. Hacemos esto para escalar nuestro modelo al tamaño de nuestro monitor. ¡Ahora tenemos un conjunto de vértices listos para renderizarse!
Volveremos a la transformación un poco más tarde.
Dibujo
Para dibujar un triángulo, simplemente podemos decirle a OpenGL que comience una nueva lista de triángulos llamando
glBegin
con laGL_TRIANGLES
constante.También hay otras formas que puedes dibujar. Como una tira triangular o un abanico triangular . Estas son principalmente optimizaciones, ya que requieren menos comunicación entre la CPU y la GPU para dibujar la misma cantidad de triángulos.
Después de eso, podemos proporcionar una lista de conjuntos de 3 vértices que deberían formar cada triángulo. Cada triángulo usa 3 coordenadas (ya que estamos en el espacio 3D). Además, también proporciono un color para cada vértice, llamando
glColor3f
antes de llamarglVertex3f
.OpenGL calcula automáticamente la sombra entre los 3 vértices (las 3 esquinas del triángulo) . Interpolará el color sobre toda la cara del polígono.
Interacción
Ahora, cuando haces clic en la ventana. La aplicación solo tiene que capturar el mensaje de la ventana que indica el clic. Luego puede ejecutar cualquier acción en su programa que desee.
Esto se vuelve mucho más difícil una vez que quieres comenzar a interactuar con tu escena 3D.
Primero debe saber claramente en qué píxel el usuario hizo clic en la ventana. Luego, teniendo en cuenta su perspectiva , puede calcular la dirección de un rayo, desde el punto del clic del mouse en su escena. Luego puede calcular si algún objeto en su escena se cruza con ese rayo . Ahora ya sabe si el usuario hizo clic en un objeto.
Entonces, ¿cómo haces que gire?
Transformación
Soy consciente de dos tipos de transformaciones que generalmente se aplican:
La diferencia es que los huesos afectan vértices individuales . Las matrices siempre afectan a todos los vértices dibujados de la misma manera. Veamos un ejemplo.
Ejemplo
Anteriormente, cargamos nuestra matriz de identidad antes de dibujar nuestro triángulo. La matriz de identidad es aquella que simplemente no proporciona transformación alguna . Entonces, lo que sea que dibuje, solo se ve afectado por mi perspectiva. Entonces, el triángulo no se rotará en absoluto.
Si quiero rotarlo ahora, podría hacer los cálculos yo mismo (en la CPU) y simplemente llamar
glVertex3f
con otras coordenadas (que se rotan). O podría dejar que la GPU haga todo el trabajo, llamandoglRotatef
antes de dibujar:amount
es, por supuesto, solo un valor fijo. Si desea animar , tendrá que realizar un seguimientoamount
y aumentarlo cada fotograma.Entonces, espera, ¿qué pasó con todas las conversaciones matriciales anteriores?
En este simple ejemplo, no tenemos que preocuparnos por las matrices. Simplemente llamamos
glRotatef
y se encarga de todo eso por nosotros.Bueno, gracias por eso!
Conclusión
Lo que se vuelve obvio es que se habla mucho con OpenGL. Pero no nos dice nada. ¿Dónde está la comunicación?
Lo único que nos dice OpenGL en este ejemplo es cuándo está hecho . Cada operación tomará una cierta cantidad de tiempo. Algunas operaciones toman un tiempo increíblemente largo, otras son increíblemente rápidas.
Enviar un vértice a la GPU será tan rápido que ni siquiera sabría cómo expresarlo. Enviar miles de vértices desde la CPU a la GPU, cada cuadro, es muy probable que no sea un problema.
Limpiar la pantalla puede tomar un milisegundo o peor (tenga en cuenta que generalmente solo tiene unos 16 milisegundos de tiempo para dibujar cada fotograma), dependiendo de qué tan grande sea su ventana gráfica. Para borrarlo, OpenGL tiene que dibujar cada píxel en el color que desea borrar, que podrían ser millones de píxeles.
Aparte de eso, solo podemos preguntarle a OpenGL sobre las capacidades de nuestro adaptador de gráficos (resolución máxima, suavizado máximo, profundidad de color máxima, ...).
Pero también podemos llenar una textura con píxeles que tienen un color específico. Cada píxel tiene un valor y la textura es un "archivo" gigante lleno de datos. Podemos cargar eso en la tarjeta gráfica (creando un búfer de textura), luego cargar un sombreador , decirle al sombreador que use nuestra textura como entrada y ejecutar algunos cálculos extremadamente pesados en nuestro "archivo".
Entonces podemos "renderizar" el resultado de nuestro cálculo (en forma de nuevos colores) en una nueva textura.
Así es como puede hacer que la GPU funcione para usted de otras maneras. Supongo que CUDA funciona de manera similar a ese aspecto, pero nunca tuve la oportunidad de trabajar con él.
Realmente solo tocamos un poco todo el tema. La programación de gráficos en 3D es una bestia infernal.
Fuente de imagen
fuente
Es difícil entender exactamente qué es lo que no entiendes.
La GPU tiene una serie de registros que asigna el BIOS. Esto permite que la CPU acceda a la memoria de la GPU e indica a la GPU que realice operaciones. La CPU conecta los valores en esos registros para asignar parte de la memoria de la GPU para que la CPU pueda acceder a ella. Luego carga instrucciones en esa memoria. Luego escribe un valor en un registro que le dice a la GPU que ejecute las instrucciones que la CPU cargó en su memoria.
La información consiste en el software que necesita ejecutar la GPU. Este software se incluye con el controlador y luego el controlador maneja la división de responsabilidad entre la CPU y la GPU (ejecutando partes de su código en ambos dispositivos).
Luego, el controlador administra una serie de "ventanas" en la memoria de la GPU que la CPU puede leer y escribir. En general, el patrón de acceso implica que la CPU escriba instrucciones o información en la memoria de la GPU asignada y luego instruya a la GPU, a través de un registro, para que ejecute esas instrucciones o procese esa información. La información incluye lógica de sombreado, texturas, etc.
fuente
Supongamos que realmente sabe cómo se ejecuta un ejecutable en un sistema operativo y cómo se envía ese ejecutable desde su GPU al monitor, pero no sabe qué está sucediendo en el medio. Entonces, echemos un vistazo desde un aspecto de hardware y extendamos más en la respuesta del aspecto del programador ...
¿Cuál es la interfaz entre CPU y GPU?
Usando un controlador , la CPU puede comunicarse a través de funciones de la placa base como PCI a la tarjeta gráfica y enviar comandos para ejecutar algunas instrucciones de GPU, acceder / actualizar la memoria de GPU , cargar un código para ejecutar en la GPU y más ...
Pero, realmente no puede hablar directamente con el hardware o el controlador desde el código; entonces, esto tendrá que suceder a través de API como OpenGL, Direct3D, CUDA, HLSL, Cg. Mientras que el primero ejecuta las instrucciones de la GPU y / o actualiza la memoria de la GPU, el segundo realmente ejecutará el código en la GPU, ya que son lenguajes físicos / sombreadores.
¿Por qué ejecutar código en la GPU y no en la CPU?
Si bien la CPU es buena para ejecutar nuestros programas diarios de estación de trabajo y servidor, no se pensó mucho en todos esos gráficos brillantes que ves en los juegos de estos días. En aquellos días había renderizadores de software que hicieron el truco de algunas cosas en 2D y 3D, pero eran muy limitantes. Entonces, aquí es donde entró en juego la GPU.
La GPU está optimizada para uno de los cálculos más importantes en gráficos, Matrix Manipulation . Mientras que la CPU tiene que calcular cada multiplicación en una manipulación de matriz una por una (más tarde, cosas como 3DNow! Y SSE se pusieron al día), ¡la GPU puede hacer todas esas multiplicaciones a la vez! Paralelismo.
Pero los cálculos paralelos no son la única razón, otra razón es que la GPU está mucho más cerca de la memoria de video, lo que lo hace mucho más rápido que tener que hacer viajes de ida y vuelta a través de la CPU, etc.
¿Cómo muestran las instrucciones / memoria / código de la GPU gráficos?
Hay una pieza que falta para que todo funcione, necesitamos algo en lo que podamos escribir y que luego podamos leer y enviar a la pantalla. Podemos hacer esto creando un framebuffer . Independientemente de la operación que realice, eventualmente actualizará los píxeles en el framebuffer; que además de la ubicación también contienen información sobre color y profundidad.
Veamos un ejemplo en el que desea dibujar un sprite de sangre (una imagen) en alguna parte; primero, la textura del árbol en sí se carga en la memoria de la GPU, lo que facilita volver a dibujarla a voluntad. Luego, para dibujar el sprite en algún lugar, podemos traducir el sprite usando vértices (colocándolo en la posición correcta), rasterizándolo (convirtiéndolo de un objeto 3D en píxeles) y actualizando el framebuffer. Para tener una mejor idea, aquí hay un diagrama de flujo de tubería OpenGL de Wikipedia:
Esta es la esencia principal de toda la idea gráfica, más investigación es tarea para el lector.
fuente
Para simplificar las cosas, podemos describirlo así. Algunas direcciones de memoria están reservadas (por BIOS y / o sistema operativo) no para RAM sino para la tarjeta de video. Cualquier dato escrito en esos valores (punteros) va a la tarjeta. Entonces, en teoría, cualquier programa puede escribir directamente en la tarjeta de video simplemente conociendo el rango de direcciones y así es exactamente como se hizo en los viejos tiempos. En la práctica con los sistemas operativos modernos, esto es administrado por el controlador de video y / o la biblioteca de gráficos en la parte superior (DirectX, OpenGL, etc.).
fuente
Las GPU generalmente son impulsadas por memorias intermedias DMA. Es decir, el controlador compila los comandos que recibe del programa espacial del usuario en una secuencia de instrucciones (estado del interruptor, dibujar esto de esa manera, cambiar los contextos, etc.), que luego se copian en la memoria del dispositivo. Luego le indica a la GPU que ejecute este búfer de comando a través de un registro PCI o métodos similares.
Entonces, en cada llamada de sorteo, etc., lo que sucede es que el controlador de espacio del usuario compilará el comando, que luego llama al controlador de espacio del kernel a través de una interrupción y que finalmente envía el búfer de comando a la memoria del dispositivo e indica a la GPU que comience a renderizar.
En las consolas, incluso puedes divertirte haciendo todo eso tú mismo, especialmente en PS3.
fuente
Creo que la CPU envía datos de video a GPU a través del bus y luego GPU lo muestra. Por lo tanto, una GPU más rápida puede manejar más datos de la CPU. De esta manera, parte del procesamiento de cpuoffload a GPU. Por lo tanto, obtienes una velocidad más rápida en los juegos.
Es como la RAM donde la CPU almacena cosas para que pueda cargarse y procesarse rápidamente. Ambos hacen que los juegos sean más rápidos.
O la tarjeta de sonido o la tarjeta de red funcionan con el mismo principio, es decir, obtener datos y descargar algunos trabajos de la CPU.
fuente
Creo que op no está seguro de qué es exactamente lo que la CPU le dice a la tarjeta gráfica que haga y por qué los comandos relacionados con los gráficos (como los comandos opengl o direct3d) no se envían directamente a la GPU.
La CPU solo le dice a la GPU qué renderizar. Todas las instrucciones primero pasan por la CPU donde se configuran / inicializan para que la GPU realmente haga el renderizado.
fuente