Estoy buscando un algoritmo genérico para calcular un anaglifo rojo / cian a partir de la imagen original y su mapa de profundidad en blanco y negro, como en este ejemplo .
Ese algoritmo se usa, por ejemplo, en Photoshop, pero no puedo encontrar una explicación legible para reproducirlo.
fuente
Aquí hay una explicación de la mordaza de Photoshop: http://www.threadless.com/profile/433934/elleevee/blog/493381/Threadless
Básicamente están usando el filtro de desplazamiento para empujar solo el canal rojo o los canales azul + verde de una imagen hacia la izquierda o hacia la derecha. El mapa de altura solo atenúa la distancia que desplaza cada píxel. Creo que el filtro de desplazamiento interpola los valores intermedios, es decir, si el píxel en (10,0) fue desplazado a la izquierda por 3 píxeles, y el píxel (11,0) fue desplazado a la izquierda por solo 1, entonces los dos píxeles en entre los píxeles objetivo se interpolaría a partir de los dos valores originales al 66% y 33%.
Esa interpolación efectivamente está cubriendo los datos faltantes: si realmente tuviera dos puntos de vista de su escena, estos píxeles representarían información oculta en la vista única. Me puedo imaginar una actualización del método descrito anteriormente, donde los algoritmos de reconstrucción similares al relleno consciente del contenido de Photoshop podrían mejorar la información que falta.
fuente