En general: el desenfoque "real", ya sea debido a características ópticas (incluida la profundidad de campo, la aberración cromática, la aberración esférica y más) o debido al movimiento, se basa en más información. Incluye los aspectos tridimensionales y temporales de la escena, y los diferentes reflejos y refracciones de las diferentes longitudes de onda de la luz.
En el procesamiento posterior, solo hay una representación plana y proyectada para trabajar. Los algoritmos inteligentes pueden intentar descubrir qué estaba pasando y simular el efecto, pero siempre están en desventaja. Es difícil saber si algo es pequeño porque está muy lejos o porque es muy pequeño para empezar, o si algo se movía o simplemente estaba borroso, o en qué dirección y con qué rapidez. Si está dirigiendo el proceso de desenfoque a mano como un trabajo artístico, obtendrá mejores resultados porque puede aplicar su propio motor de conocimiento y reconocimiento de escena (en, ya sabe, su cerebro ), pero incluso así, es mucho trabaje y necesitará aproximar la distancia y el movimiento diferente para diferentes objetos en la escena, o comenzar intencionalmente con una fotografía donde estas cosas sean simples.
En el Mundo del Mañana, las cámaras recopilarán mucha más información tanto en tiempo como en espacio. La cámara Lytro actual es una vista previa de esto. Con un mejor modelo 3D, los efectos de diferentes configuraciones ópticas pueden simularse mejor y, por supuesto, el desenfoque de movimiento se puede construir a partir de una grabación a lo largo del tiempo.
Por favor lea mi perfil
fuente