Varias de las operaciones que está describiendo manipulan los datos en la imagen de modo que la información se pierde o se transforma. En su mayor parte, no creo que esto importe con la fotografía tradicional (es decir, impresiones y similares), pero definitivamente importa cuando cada píxel se considera una medida del número de fotones.
Lo que pienso cuando hago operaciones es la propagación del error. El error puede existir en el nivel de un solo píxel, el nivel espacial y el nivel de color.
El ruido es un error del sensor de un solo píxel durante el proceso de detección, introducido por fotones errantes, efectos cuánticos (traducir un fotón en un electrón para contar es un evento probabilístico en el nivel cuántico) y conversión de analógico a digital. Si las operaciones posteriores harán cosas como el contraste de estiramiento (ecualización de histograma) o enfatizan regiones más oscuras (luz de relleno), entonces querrá reducir el ruido antes de hacer eso.
Para un ejemplo completamente reducido de lo que quiero decir, tome una imagen de campo oscuro (imagen con la tapa del objetivo puesta). El resultado es ruido. Puede mejorar el contraste, o lo que quiera, pero sigue siendo ruido. Un algoritmo perfecto de reducción de ruido debería eliminarlo todo, por lo que no se puede encontrar contraste para mejorar en los pasos posteriores.
El error espacial se puede introducir de varias maneras. Cuando gira una imagen, introduce errores espaciales. Si piensa que hay una imagen 'verdadera' (en el sentido ideal platónico), la cámara graba una versión digital de eso. Incluso cuando usa película: los granos / cristales de película son de tamaño finito, y se producirá un muestreo de la imagen 'verdadera'. Cuando gira una imagen digital, introduce efectos de alias. Los bordes más afilados se opacarán ligeramente (a menos que gire a 90 grados, en cuyo caso el muestreo de cuadrícula aún se mantiene). Para ver a qué me refiero, tome una imagen y gírela en incrementos de 1 grado. El borde afilado ahora estará (ligeramente) borroso debido al muestreo necesario para hacer pequeñas rotaciones.
El muestreo de Bayer puede ser solo un error de muestreo espacial con el que tenemos que vivir. Es uno de los grandes atractivos (quizás el único atractivo real) del sensor Foveon. Cada píxel mide el color en esa ubicación, en lugar de obtener los otros colores de los píxeles vecinos. Tengo un dp2, y debo decir que los colores son bastante impresionantes en comparación con mi d300. La usabilidad, no tanto.
Los artefactos de compresión son otro ejemplo de error espacial. Comprima una imagen varias veces (abra un jpg, guárdelo en una ubicación diferente, cierre, vuelva a abrir, enjuague, repita) y verá lo que quiero decir aquí, especialmente con una compresión del 75%.
Los errores de espacio de color se introducen cuando se mueve de un espacio de color al siguiente. Si toma un png (sin pérdidas) y lo mueve de un espacio de color a otro, guárdelo. Luego, regrese al espacio de color original, verá algunas diferencias sutiles donde los colores en un espacio no se asignaron al otro.
Cuando estoy procesando fotos, entonces, mi pedido generalmente es este:
- reducción de ruido
- mejora de contraste, exposiciones, etc.
- rotaciones
- espacio de color
- Compresión final a la imagen de salida.
Y siempre guardo lo crudo.
Como siempre, depende . Preferiblemente usaría un editor no destructivo, Lightroom es un ejemplo. En ese caso, el orden no hace mucha diferencia (¿alguna?).
Por otro lado, si está utilizando un editor que realiza los cambios a medida que avanza, cada cambio es permanente y tendrá una pérdida de calidad.
En esas situaciones, tiendo a hacer los cambios más pequeños primero, y trabajar con cambios más grandes.
Siguiendo esa orden, probablemente diría:
Dicho esto, las únicas cosas que me preocupan son los últimos 2, cambiar el tamaño al final, luego, después de cambiar el tamaño, agudizar .
fuente
Creo que en la práctica son muy, muy pocas operaciones en las que el pedido marca una diferencia particular. Puede haber algunos en los que cambie una cantidad menor de datos en total, pero la preocupación por la edición destructiva es en gran medida exagerada. Regresé y volví a hacer fotos muy raramente para algunos favoritos en particular; Si he cometido lo que luego percibo como un error, prefiero hacer ajustes en el futuro.
Creo que, en lugar de pensar en términos de orden, es más útil pensar en términos de grupos interactivos de operaciones.
Mi copia de archivo generalmente es después del paso 3, pero ocasionalmente después del paso 2 si 3 parece particularmente experimental o extremo.
fuente
(Esto es más un comentario que una respuesta). El orden hace la diferencia independientemente de si está haciendo una edición "no destructiva" o no.
Photoshop es tan "no destructivo" como cualquier otro editor, dependiendo de cómo lo use. No está cambiando el archivo sin formato original.
El punto principal es que es más fácil hacer algunas modificaciones antes de cambiar de los valores lineales capturados por el sensor a los valores de respuesta logarítmica utilizados para atraer la atención. Es por eso que gran parte del procesamiento en los últimos años se ha trasladado al convertidor sin formato: es mejor hacerlo antes de asignarlo a la respuesta de registro del ojo.
El conversor sin formato es el mejor lugar para la mayoría de los cambios de "desarrollo" porque es antes de que se aplique la corrección gamma. Intente ajustar el balance de color antes y después de la conversión en bruto para tener una idea de la diferencia. Por supuesto, no tengo idea de en qué orden realiza el convertidor sin formato la eliminación de manchas y la reducción de ruido (aunque podría adivinar), pero no es particularmente relevante: es un paso en el procesamiento.
En el pasado, la gente se preocuparía por hacer la mayor parte del trabajo en la profundidad de bits máxima y luego convertir a la salida. No hay nada malo con ese principio, pero en la práctica debería poder hacer todo lo que necesita en el convertidor sin formato, por lo que es un punto discutible.
Claro, debe cambiar el tamaño y luego enfocar en ese tamaño, el punto perdido por quizás el 95% de las personas que muestran imágenes en la web.
Es diferente para impresiones y salida web. Para la salida web, necesita saber cómo se relaciona su monitor con los demás: ¿es nítido o no y los colores son correctos? Una vez que sepa, sabrá cuánto afilar. En su mayoría, encontrará que las impresoras son mucho más suaves, por lo que, por lo general, querrá afinar demasiado su pantalla para que las impresiones sean precisas. La cantidad de afilado excesivo que tendrá que encontrar por prueba y error, ya que las impresoras varían. Debido a que no está editando de forma no destructiva, puede enfocar para dispositivos de salida específicos sin preocuparse por sus originales.
fuente