Tengo un monitor Dell U2312HM conectado a una computadora portátil Dell Latitude E7440. Cuando los conecto a través de laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(el monitor no tiene una toma HDMI), la imagen es mucho más nítida que con laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. La diferencia es difícil de capturar con una cámara, pero vea mi intento a continuación. Intenté jugar con ajustes de brillo, contraste y nitidez, pero no puedo obtener la misma calidad de imagen. La resolución es 1920x1080, estoy usando Ubuntu 14.04.
VGA:
HDMI:
¿Por qué es diferente la calidad? ¿Es intrínseco a estos estándares o debo sospechar que hay un cable VGA o un adaptador mDP-VGA defectuosos?
Respuestas:
VGA es la única señal analógica de las mencionadas anteriormente, por lo que ya es una explicación de la diferencia. Usar el adaptador puede empeorar aún más su situación.
algunas lecturas adicionales: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
fuente
Suponiendo que el brillo, el contrato y la nitidez son los mismos en ambos casos, podría haber otras 2 razones por las cuales el texto es más nítido con DVI / HDMI:
Lo primero ya se ha dicho, VGA es analógico, por lo que deberá pasar por una conversión de analógico a digital dentro del monitor, lo que en teoría degradará la calidad de la imagen.
En segundo lugar, suponiendo que está utilizando Windows, existe una técnica llamada ClearType (desarrollada por Microsoft) que mejora la apariencia del texto al manipular los subpíxeles de un monitor LCD. VGA se desarrolló teniendo en cuenta los monitores CRT y la noción de un subpíxel no es la misma. Debido al requisito de que ClearType use una pantalla LCD y el hecho de que el estándar VGA no le dice al host que las especificaciones de la pantalla ClearType se deshabilitarían con una conexión VGA.
Fuente: recuerdo haber escuchado sobre ClearType de uno de sus creadores en un podcast para This (). Developers (). Life () IIRC, pero http://en.wikipedia.org/wiki/ClearType también apoya mi teoría. Además, HDMI es retrocompatible con DVI y DVI admite identificación electrónica de pantalla (EDID)
fuente
Los otros hacen algunos buenos puntos, pero la razón principal es un obvio desajuste de reloj y fase. El VGA es analógico y está sujeto a interferencias y desajustes de los lados de envío y recepción analógicos. Normalmente uno usaría un patrón como este:
http://www.lagom.nl/lcd-test/clock_phase.php
Y ajuste el reloj y la fase del monitor para obtener la mejor coincidencia y la imagen más nítida. Sin embargo, dado que es analógico, estos ajustes pueden cambiar con el tiempo y, por lo tanto, lo ideal sería usar una señal digital.
fuente
Hay algunas respuestas que indican una señal digital vs. analógica que es correcta. Pero eso no responde al por qué? Algunas capas de traducción mencionadas, esto también es cierto, una conversión A / D convencional puede causar una pérdida de fidelidad, pero tendría que medir esto ya que es difícil ver las diferencias a simple vista. Una conversión barata y todas las apuestas están apagadas.
Entonces, ¿por qué es digital mejor que analógico?
Una señal RGB analógica (como VGA) utiliza la amplitud de la señal (.7 voltios pico a pico en el caso de VGA). Esto, como todas las señales, tiene ruido que, si es lo suficientemente grande, hará que los niveles se traduzcan incorrectamente.
Los reflejos en el cable (desajustes de impedancia) son en realidad la mayor caída de una señal de video analógica. Esto introduce ruido adicional y empeora con cables más largos (o más baratos), cuanto mayor sea la resolución del video, también aumenta la relación señal / ruido. Curiosamente, no debería poder ver ninguna diferencia en una señal de 800x600 a menos que el cable VGA sea demasiado largo.
¿Cómo una señal digital evita esos escollos? Bueno, para uno el nivel ya no es relevante. Además, DVI-D / HDMI utiliza una señal diferencial y una corrección de errores para garantizar que los ceros se transmitan correctamente. También hay un acondicionamiento adicional agregado a una señal digital que no es práctico agregar a una señal de video analógica.
Lo siento por los chicos de la caja de jabón, pero son los hechos.
fuente
Otro problema es que muchos cables VGA son basura. Cuando el cable VGA es menos de 1/4" de espesor, que tendrá probablemente notará el efecto fantasma en los monitores más grandes (superior al rez, más probable imágenes fantasma). Incluso he notado el efecto fantasma en el cable VGA adjunto en unos 19" CRT montitors. Mis cables VGA tienen un grosor de aproximadamente 1/3 "y realmente ayudan con la nitidez (cables más gruesos, más blindaje)
fuente
HDMI y DVI son muy similares. Ambos son digitales; Las principales diferencias son que HDMI admite audio y HDCP. Al cambiar entre HDMI y DVI, hay poca conversión real, sino que conecta los pines correspondientes en los conectores. Display Port es un protocolo digital, pero VGA es analógico, y el convertidor probablemente presenta pequeños defectos y la reducción de la nitidez en la señal. El monitor probablemente convierte la señal nuevamente a digital, incurriendo en otra conversión que afecta negativamente la calidad.
Sobre todo, la computadora-> HDMI-> DVI-> monitor tiene menos conversiones reales que la computadora-> DisplayPort-> VGA-> monitor y nunca convierte la señal a analógica, dando una imagen más nítida.
fuente
HDMI y DVI son en realidad uno y el mismo (al menos en su contexto). Los conectores DVI son realmente solo conectores HDMI con un pinout diferente (las filas de pines), más los conectores VGA con un pinout diferente (los pines dispuestos alrededor de una forma cruzada). Si observa su convertidor de HDMI a DVI, probablemente notará que falta la parte en forma de cruz.
Entonces, está comparando una imagen HDMI con una imagen VGA y, como señaló @Josh, una que implique una conversión real.
En realidad, hay una diferencia entre HDMI y DVI, pero no es relevante para usted. HDMI puede transportar señales adicionales, incluida la señal de cifrado para protección de contenido, sonido, Ethernet, etc.
fuente