En Photoshop, ¿habrá una diferencia de calidad cuando un ráster se reduzca 75% una vez en lugar de reducirse 50% dos veces ? En ambos casos, el tamaño final será el mismo: 25% del original.
La razón por la que pregunto es porque a veces quiero reducir una imagen que sé que se ha reducido previamente. Odio tener que presionar CTRL + Z (deshacer) cien veces hasta el estado en que la imagen tenía su tamaño original. Si la calidad final no se ve afectada, prefiero escalar la imagen allí mismo.
adobe-photoshop
JoJo
fuente
fuente
(100%-75%)*(100%-75%) != 50%
. Pero creo que sé lo que quieres decir, y la respuesta a eso es "no", y realmente no podrás notar la diferencia, si es que hay alguna.Respuestas:
Es el wiki de la comunidad, por lo que puedes arreglar esta publicación terrible.
Grrr, no LaTeX. :) Creo que tendré que hacerlo lo mejor que pueda.
Definición:
Tenemos una imagen (PNG u otro formato sin pérdida *) llamada A de tamaño A x por A y . Nuestro objetivo es escalarlo en p = 50% .
Image ( "array") B será una versión "directamente a escala" de A . Tendrá B s = 1 número de pasos.
A = B B s = B 1
Image ( "array") C será un "incrementalmente escalado" versión de A . Tendrá C s = 2 número de pasos.
A ≅ C C s = C 2
Lo divertido:
A = B 1 = B 0 × p
C 1 = C 0 × p 1 ÷ C s
A ≅ C 2 = C 1 × p 1 ÷ C s
¿Ves esos poderes fraccionales? Teóricamente degradarán la calidad con imágenes ráster (los rásteres dentro de los vectores dependen de la implementación). ¿Cuánto cuesta? Lo resolveremos a continuación ...
Lo bueno:
C e = 0 si p 1 ÷ C s ∈ ℤ
C e = C s si p 1 ÷ C s ∉ ℤ
Donde e representa el error máximo (peor de los casos), debido a errores de redondeo de enteros.
Ahora, todo depende del algoritmo de reducción de escala (Supermuestreo, Bicubic, muestreo de Lanczos, Vecino más cercano, etc.).
Si estamos utilizando el vecino más cercano (el peor algoritmo para cualquier cosa de cualquier calidad), el "verdadero error máximo" ( C t ) será igual a C e . Si estamos usando alguno de los otros algoritmos, se complica, pero no será tan malo. (Si quieres una explicación técnica sobre por qué no será tan malo como el vecino más cercano, no puedo darte una porque es solo una suposición. NOTA: ¡Hola, matemáticos! ¡Arreglen esto!)
Ama a tu prójimo:
Hagamos una "matriz" de imágenes D con D x = 100 , D y = 100 y D s = 10 . p sigue siendo el mismo: p = 50% .
Algoritmo de vecino más cercano (terrible definición, lo sé):
N (I, p) = mergeXYDuplicates (floorAllImageXYs (I x, y × p), I) , donde solo se multiplican los x, y ; no sus valores de color (RGB)! Sé que realmente no puedes hacer eso en matemáticas, y esta es exactamente la razón por la que no soy EL LEGENDARIO MATEMÁTICO de la profecía.
( mergeXYDuplicates () mantiene solo los "elementos" x, y más inferiores a la izquierda / más a la izquierda en la imagen original I para todos los duplicados que encuentra, y descarta el resto).
Tomemos un píxel aleatorio: D 0 39,23 . Luego aplique D n + 1 = N (D n , p 1 ÷ D s ) = N (D n , ~ 93.3%) una y otra vez.
c n + 1 = piso (c n × ~ 93.3%)
c 1 = piso ((39,23) × ~ 93.3%) = piso ((36.3,21.4)) = (36,21)
c 2 = piso ((36,21) × ~ 93.3%) = (33,19)
c 3 = (30,17)
c 4 = (27,15)
c 5 = (25,13)
c 6 = (23,12)
c 7 = (21,11)
c 8 = (19,10)
c 9 = (17,9)
c 10 = (15,8)
Si hiciéramos una escala simple solo una vez, tendríamos:
b 1 = piso ((39,23) × 50%) = piso ((19.5,11.5)) = (19,11)
Comparemos b y c :
b 1 = (19,11)
c 10 = (15,8)
¡Eso es un error de (4,3) píxeles! Probemos esto con los píxeles finales (99,99) y tengamos en cuenta el tamaño real en el error. No volveré a hacer todos los cálculos aquí, pero te diré que se convierte en (46,46) , un error de (3,3) de lo que debería ser, (49,49) .
Combinemos estos resultados con el original: el "error real" es (1,0) .
Imagínese si esto sucede con cada píxel ... puede terminar haciendo una diferencia.Hmm ... Bueno, probablemente haya un mejor ejemplo. :)Conclusión:
Si su imagen es originalmente de gran tamaño, en realidad no importará, a menos que haga varias escalas descendentes (consulte "Ejemplo del mundo real" a continuación).
Empeora en un máximo de un píxel por paso incremental (hacia abajo) en el vecino más cercano. Si hace diez escalas, su imagen se degradará ligeramente en calidad.
Ejemplo del mundo real:
(Haga clic en las miniaturas para ampliarla).
Reducido en un 1% de forma incremental usando Supermuestreo:
Como puede ver, el Supermuestreo lo "difumina" si se aplica varias veces. Esto es "bueno" si está haciendo una reducción de escala. Esto es malo si lo estás haciendo de forma incremental.
* Según el editor y el formato, esto podría marcar la diferencia, por lo que lo mantengo simple y lo considero sin pérdidas.
fuente
JoJo pregunta por la calidad. La mayoría de las respuestas son sobre la precisión de los píxeles , lo cual es casi irrelevante para un diseñador, o incluso un fotógrafo.
La calidad es una medida de cuán convincente y agradable es el resultado final, no de cuán "preciso" sea. Como un buen ejemplo, la Clonación o el Relleno consciente del contenido reemplazan las partes no deseadas de una imagen con píxeles plausibles : se ven bien, pero ciertamente no pueden considerarse precisas.
En Photoshop, la principal diferencia práctica entre reducir el tamaño incrementalmente o reducir el tamaño en una sola toma es que lleva mucho más tiempo. Si cobra por hora, vaya al 1% por vez. Si no, reduzca el tamaño de una vez. Convierta la imagen en un objeto inteligente primero, en caso de que alguna vez quiera hacer una versión más grande.
No importa qué algoritmo use (y el comentario de Dawson acerca de esos algoritmos es acertado, son increíbles), la reducción de tamaño arroja píxeles. El algoritmo resta píxeles y modifica a otros adivinando cómo hacer que se vean bien. Un buen algoritmo hace buenas conjeturas; le da un resultado que parece convincente, pero no es exacto en ningún sentido significativo. Honestamente, preciso , ¡aparte del color! - no es lo que está buscando a menos que sea un científico, en cuyo caso probablemente no reducirá su tamaño en primer lugar.
Una imagen que se ha reducido utilizando el algoritmo bicúbico habitual a menudo se beneficia de un poco de nitidez, pero si está creando jpegs para la web, la nitidez aumentará el tamaño del archivo.
La calidad correcta en el diseño es la calidad que necesita para su producto final. Cualquier cosa más allá agrega tiempo, pero no valor, a su trabajo.
[Editar: Ya que hubo una mención de ampliación en el renacimiento de koiyu de esta pregunta. He agregado algunos comentarios sobre ese tema.]
Existe la idea de que si sube una imagen en pequeños pasos, en lugar de un solo salto gigante, obtendrá un resultado ligeramente mejor ("un poco menos malo" sería más preciso). Scott Kelby promovió la idea hace algunos años, y puede haber sido cierta a partir de PS 7. No he visto nada que me haya convencido de que hoy sea correcta. No se demostró en mis propias pruebas, en torno a PS CS2 y 3, pero hay que decir que no perdí mucho tiempo en ellas.
No pasé tiempo en pruebas profundas porque la ligera diferencia entre "calidad de imagen degradada" y "calidad de imagen ligeramente menos degradada" no tiene ningún valor práctico: tampoco es utilizable. En mi propio trabajo, mi regla simple es: "No aumentar el tamaño". Como cuestión de practicidad en el trabajo de diseño, una imagen que tiene una resolución demasiado baja para un propósito particular siempre se ve mejor utilizada tal cual que la misma imagen "ampliada" a la resolución "correcta" por cualquier proceso que haya encontrar, incluyendo variaciones fractales y bicúbicas.
fuente
En general, los escalados múltiples reducirán la calidad en una escala única al tamaño final, pero a menudo la diferencia será mínima. En particular, la escala más pequeña en proporciones exactas, como su ejemplo de (2: 1, 2: 1) versus (4: 1), tendrá una degradación muy pequeña en comparación con la escala única. Por supuesto, es mejor hacer todas las modificaciones en la resolución más alta y luego escalar solo una vez al final. Cuando la escala exacta no se conoce inicialmente, se puede hacer una serie de escalas de prueba para encontrar el tamaño correcto, luego observar el tamaño, tirar la imagen de prueba y realizar una escala única a ese tamaño desde el original.
fuente
¡Esta pregunta es INCREÍBLE! ... Creo que todos nos estamos volviendo demasiado técnicos.
Imagen de 100 x 100 píxeles = 10000 píxeles totales
Al reducir una imagen hacia abajo, se extraen los píxeles. La ampliación los agrega. De cualquier manera, el software toma una "suposición educada" para alterar el archivo.
Una sola reducción: 90 x 90 (1900px eliminado de la información del archivo original)
Reducción de 2 pasos: 95 x 95 (975 px eliminado), 90 x 90 (otro 925). El detalle a tener en cuenta aquí es el del total de 1900px eliminado: 975 de ellos NO formaron parte de la información original .
La imagen original es siempre la mejor. Menos "generaciones" siempre equivale a una mejor calidad (más cercana a la calidad original).
PRUEBA (y una respuesta al comentario de @mutoo)
Es simple ... es un algoritmo ... no es un conjunto de ojos humanos. Hay 3 colores aquí. 100% negro, 50% negro y blanco (imagen en escala de grises). No importa cómo lo escale: menú de tamaño de imagen, herramienta de transformación, RGB, CMYK, 100 x 100 px, 10 x 10 pulgadas, los resultados son los mismos:
A lo largo del borde negro / gris encontrarás 80% de negro (un color que no existe). A lo largo del borde blanco / gris, encontrará un 7% de negro (no existe). [No es una invitación para el argumento anti-alias aquí]
Como todos sabemos (ser humano, y todo), una reducción o ampliación perfecta produciría una caja de rayas Negra / Gris / Blanca. Y todavía encontré que una sola iteración (arriba o abajo) creó una réplica mejor que la múltiple.
fuente
Probablemente sí, pero en la mayoría de los casos ni siquiera podrás notar la diferencia.
Editar: veo que a la gente no le gusta mi respuesta :). Quizás porque es simple. En mi humilde opinión, no lo hace menos cierto. Bueno ... prueba que estoy equivocado :).
Edición 2: quería mantener mi respuesta breve pero ... :)
P: En Photoshop, ¿habrá una diferencia en la calidad cuando un ráster se reduzca un 75% una vez en lugar de reducirse un 50% dos veces? En ambos casos, el tamaño final será el mismo: 25% del original.
UN:
"Lo más probable es que sí" - mira la publicación de muntoo. Él dice que cada paso de interpolación introduce algunos errores menores. Son errores de redondeo o representación y pueden contribuir a la degradación de la calidad. Conclusión simple: más pasos, más posible degradación. Por lo tanto, la imagen "más probable" perderá calidad durante cada paso de escala. Más pasos: más posible degradación de la calidad. Por lo tanto, la imagen "más probable" se degradará más si se escala en dos veces que en una. La pérdida de calidad no es segura: tome una imagen en color sólido, por ejemplo, pero ¿con qué frecuencia cualquier diseñador escalará imágenes similares?
"pero en la mayoría de los casos ni siquiera podrás notar la diferencia" , nuevamente, la publicación de muntoo. ¿Qué tan grandes son los posibles errores? En sus ejemplos, las imágenes se escalan no en 2 sino en 75 pasos y los cambios en la calidad son notables pero no dramáticos. En 75 pasos! ¿Qué sucede cuando la imagen se escala al 25% en Ps CS4 (bicubic, muestra de muntoo, se escala en uno y dos pasos en consecuencia)?
¿Alguien puede ver la diferencia? Pero la diferencia está ahí:
Y se puede ver si está marcado correctamente (gm compare -highlight-color purple -file diff.png one-step.png two-step.png):
1 y 2 hace mi respuesta, que esperaba mantener breve, ya que otras eran bastante elaboradas;).
¡Eso es! :) Juzga tú mismo.
fuente