¿Dónde puedo encontrar un algoritmo para crear anaglifos 3D usando una imagen de mapa de profundidad?

8

Estoy buscando un algoritmo genérico para calcular un anaglifo rojo / cian a partir de la imagen original y su mapa de profundidad en blanco y negro, como en este ejemplo .

Ese algoritmo se usa, por ejemplo, en Photoshop, pero no puedo encontrar una explicación legible para reproducirlo.

Lo inesperado
fuente

Respuestas:

1

Este documento puede ser útil. Se enfoca en escenas al aire libre / paisajes. Lo siguiente es un extracto del resumen del artículo:

Este artículo presenta una nueva técnica sin supervisión destinada a generar vistas estereoscópicas que estiman la información de profundidad a partir de una sola imagen de entrada. Usando una sola imagen de entrada, los puntos / líneas de fuga se extraen usando algunas heurísticas para generar un mapa de profundidad aproximado. El mapa de profundidad se usa para generar pares estéreo.

Dario Hamidi
fuente
¡Bienvenido a Stack Exchange! ¿Podría proporcionar un poco más que un simple enlace? ¿En qué página se encuentran el algoritmo y su explicación? El PDF también parece bastante pesado (por lo que no es accesible para todos los usuarios visitantes) y no hay garantía de que esté disponible en el futuro cercano.
Tamara Wijsman
1
Es cierto que no sé mucho sobre el tema, pero decidí probar google. El artículo que encontré parecía estar muy cerca de una respuesta, por lo que compartirlo parecía una buena idea
Dario Hamidi
1

Aquí hay una explicación de la mordaza de Photoshop: http://www.threadless.com/profile/433934/elleevee/blog/493381/Threadless

Básicamente están usando el filtro de desplazamiento para empujar solo el canal rojo o los canales azul + verde de una imagen hacia la izquierda o hacia la derecha. El mapa de altura solo atenúa la distancia que desplaza cada píxel. Creo que el filtro de desplazamiento interpola los valores intermedios, es decir, si el píxel en (10,0) fue desplazado a la izquierda por 3 píxeles, y el píxel (11,0) fue desplazado a la izquierda por solo 1, entonces los dos píxeles en entre los píxeles objetivo se interpolaría a partir de los dos valores originales al 66% y 33%.

Esa interpolación efectivamente está cubriendo los datos faltantes: si realmente tuviera dos puntos de vista de su escena, estos píxeles representarían información oculta en la vista única. Me puedo imaginar una actualización del método descrito anteriormente, donde los algoritmos de reconstrucción similares al relleno consciente del contenido de Photoshop podrían mejorar la información que falta.

Chris Subagio
fuente