¿Por qué la imagen HDMI-> DVI es más nítida que VGA?

20

Tengo un monitor Dell U2312HM conectado a una computadora portátil Dell Latitude E7440. Cuando los conecto a través de laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor(el monitor no tiene una toma HDMI), la imagen es mucho más nítida que con laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor. La diferencia es difícil de capturar con una cámara, pero vea mi intento a continuación. Intenté jugar con ajustes de brillo, contraste y nitidez, pero no puedo obtener la misma calidad de imagen. La resolución es 1920x1080, estoy usando Ubuntu 14.04.

VGA:

VGA

HDMI:

HDMI

¿Por qué es diferente la calidad? ¿Es intrínseco a estos estándares o debo sospechar que hay un cable VGA o un adaptador mDP-VGA defectuosos?

alcamida
fuente
66
Probablemente estés jugando con la configuración incorrecta. Use un programa (o sitio web ) que pueda generar un patrón de prueba y ajustar la configuración del reloj y la fase .
David Schwartz
11
Tenga en cuenta que tanto HDMI como DVI utilizan la misma señal / protocolo: TMDS , por lo que la primera opción es perfecta (sin pérdidas).
Solución obvia: obtenga un monitor HDMI
Steven Penny
La mayoría de las salidas VGA modernas son de baja calidad. Eso es porque a nadie le importa más. Ah, e intentaste el botón Auto cuando usaste VGA, ¿verdad?
Daniel B
1
@StevenPenny - ¿Cómo ayudaría eso? Él ya tiene una imagen más nítida con un adaptador HDMI-DVI. Como el monitor ya tiene una entrada DVI, ¿por qué sería necesaria una entrada HDMI? Expande el razonamiento detrás de tu comentario.
Greenonline

Respuestas:

44

VGA es la única señal analógica de las mencionadas anteriormente, por lo que ya es una explicación de la diferencia. Usar el adaptador puede empeorar aún más su situación.

algunas lecturas adicionales: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/

Máté Juhász
fuente
2
Un gran punto a destacar aquí es que casi los cables VGA son basura. Puede obtener una calidad de imagen relativamente decente con VGA, pero el cable debería ser aproximadamente 3 veces más grueso de lo que generalmente se incluye con pantallas / televisores.
analytik
@analytik Seguiré y diré que estás casi equivocado. Para que el cable sea más grueso, primero debe haber un cable ... Simplemente envían los televisores y (a veces) las pantallas con solo el cable de alimentación y ya eres una persona afortunada. ¡Si pudieran, lo venderían sin ningún cable!
Ismael Miguel
@IsmaelMiguel bueno, supongo que eso depende de dónde vivas, por lo que ambos estamos equivocados de alguna manera. Para todas las pantallas CRT y LCD que compré y vendí en 3 países europeos diferentes, la costumbre es empaquetar un cable D-SUB, incluso cuando la pantalla es compatible con DVI / HDMI / DisplayPort. Aunque admito que no he vendido muchos televisores LCD, la costumbre allí puede ser diferente.
analytik
@analytik Vivo en Portugal y, por lo general, las pantallas CRT tenían el cable conectado y era raro ver una pantalla con un cable extraíble. A veces, las pantallas LCD vienen con un cable VGA de muy baja calidad. Pero los televisores LCD y los televisores de plasma y otros solo vienen con el cable / adaptador de alimentación. A veces, el cable de alimentación viene conectado y no se puede quitar. Pero eso es raro.
Ismael Miguel
@IsmaelMiguel, tiene razón: mi amigo que trabajaba en el sector minorista de TI dijo que las pantallas LCD generalmente vienen con 1 o 2 cables (D-Sub / DVI), pero los televisores casi nunca funcionan.
analytik
12

Suponiendo que el brillo, el contrato y la nitidez son los mismos en ambos casos, podría haber otras 2 razones por las cuales el texto es más nítido con DVI / HDMI:

Lo primero ya se ha dicho, VGA es analógico, por lo que deberá pasar por una conversión de analógico a digital dentro del monitor, lo que en teoría degradará la calidad de la imagen.

En segundo lugar, suponiendo que está utilizando Windows, existe una técnica llamada ClearType (desarrollada por Microsoft) que mejora la apariencia del texto al manipular los subpíxeles de un monitor LCD. VGA se desarrolló teniendo en cuenta los monitores CRT y la noción de un subpíxel no es la misma. Debido al requisito de que ClearType use una pantalla LCD y el hecho de que el estándar VGA no le dice al host que las especificaciones de la pantalla ClearType se deshabilitarían con una conexión VGA.

Fuente: recuerdo haber escuchado sobre ClearType de uno de sus creadores en un podcast para This (). Developers (). Life () IIRC, pero http://en.wikipedia.org/wiki/ClearType también apoya mi teoría. Además, HDMI es retrocompatible con DVI y DVI admite identificación electrónica de pantalla (EDID)

youngwt
fuente
44
"... y DVI admite la identificación electrónica de pantalla (EDID)" también lo hace VGA. Sin embargo, no pude averiguar si hay un campo en EDID que realmente identifique el tipo de visualización; ¿Tienes esta información?
Random832
7

Los otros hacen algunos buenos puntos, pero la razón principal es un obvio desajuste de reloj y fase. El VGA es analógico y está sujeto a interferencias y desajustes de los lados de envío y recepción analógicos. Normalmente uno usaría un patrón como este:

http://www.lagom.nl/lcd-test/clock_phase.php

Y ajuste el reloj y la fase del monitor para obtener la mejor coincidencia y la imagen más nítida. Sin embargo, dado que es analógico, estos ajustes pueden cambiar con el tiempo y, por lo tanto, lo ideal sería usar una señal digital.

Jarrod Christman
fuente
Buen enlace !! :-)
Peque
5

Hay algunas respuestas que indican una señal digital vs. analógica que es correcta. Pero eso no responde al por qué? Algunas capas de traducción mencionadas, esto también es cierto, una conversión A / D convencional puede causar una pérdida de fidelidad, pero tendría que medir esto ya que es difícil ver las diferencias a simple vista. Una conversión barata y todas las apuestas están apagadas.

Entonces, ¿por qué es digital mejor que analógico?

Una señal RGB analógica (como VGA) utiliza la amplitud de la señal (.7 voltios pico a pico en el caso de VGA). Esto, como todas las señales, tiene ruido que, si es lo suficientemente grande, hará que los niveles se traduzcan incorrectamente.

Los reflejos en el cable (desajustes de impedancia) son en realidad la mayor caída de una señal de video analógica. Esto introduce ruido adicional y empeora con cables más largos (o más baratos), cuanto mayor sea la resolución del video, también aumenta la relación señal / ruido. Curiosamente, no debería poder ver ninguna diferencia en una señal de 800x600 a menos que el cable VGA sea demasiado largo.

¿Cómo una señal digital evita esos escollos? Bueno, para uno el nivel ya no es relevante. Además, DVI-D / HDMI utiliza una señal diferencial y una corrección de errores para garantizar que los ceros se transmitan correctamente. También hay un acondicionamiento adicional agregado a una señal digital que no es práctico agregar a una señal de video analógica.

Lo siento por los chicos de la caja de jabón, pero son los hechos.

Zameru
fuente
3

Otro problema es que muchos cables VGA son basura. Cuando el cable VGA es menos de 1/4" de espesor, que tendrá probablemente notará el efecto fantasma en los monitores más grandes (superior al rez, más probable imágenes fantasma). Incluso he notado el efecto fantasma en el cable VGA adjunto en unos 19" CRT montitors. Mis cables VGA tienen un grosor de aproximadamente 1/3 "y realmente ayudan con la nitidez (cables más gruesos, más blindaje)

mate
fuente
1
Realmente no se puede decir nada seguro del diámetro del cable. Los cables más pesados ​​y más blindaje podrían ser más grandes, o más grandes podrían significar un aislamiento más grueso, o más pequeños podrían ser mejores usando blindaje más delgado pero efectivo y aislamiento más delgado.
Fixer1234
2

HDMI y DVI son muy similares. Ambos son digitales; Las principales diferencias son que HDMI admite audio y HDCP. Al cambiar entre HDMI y DVI, hay poca conversión real, sino que conecta los pines correspondientes en los conectores. Display Port es un protocolo digital, pero VGA es analógico, y el convertidor probablemente presenta pequeños defectos y la reducción de la nitidez en la señal. El monitor probablemente convierte la señal nuevamente a digital, incurriendo en otra conversión que afecta negativamente la calidad.

Sobre todo, la computadora-> HDMI-> DVI-> monitor tiene menos conversiones reales que la computadora-> DisplayPort-> VGA-> monitor y nunca convierte la señal a analógica, dando una imagen más nítida.

Josh The Geek
fuente
También puede tener HDCP con DVI.
Carsten S
1

HDMI y DVI son en realidad uno y el mismo (al menos en su contexto). Los conectores DVI son realmente solo conectores HDMI con un pinout diferente (las filas de pines), más los conectores VGA con un pinout diferente (los pines dispuestos alrededor de una forma cruzada). Si observa su convertidor de HDMI a DVI, probablemente notará que falta la parte en forma de cruz.

Entonces, está comparando una imagen HDMI con una imagen VGA y, como señaló @Josh, una que implique una conversión real.

En realidad, hay una diferencia entre HDMI y DVI, pero no es relevante para usted. HDMI puede transportar señales adicionales, incluida la señal de cifrado para protección de contenido, sonido, Ethernet, etc.

Kevin Keane
fuente