Esperar el momento exacto para tomar una foto puede ser muy difícil, especialmente cuando se trabaja con niños o animales. He leído en alguna parte (no puedo encontrar la fuente) que cada fotograma congelado de un video HD es esencialmente una foto de alta resolución (¿es esto cierto?).
¿Cuáles son los desafíos, los pros y los contras de seleccionar el mejor fotograma de un video como una forma de tomar fotos fijas donde el tiempo es crucial?
Respuestas:
La gran ventaja de esto es, como usted dice, la capacidad de tomar muchas fotos en un corto período de tiempo, lo que le permite elegir el mejor marco.
Sin embargo, hay varios inconvenientes para este enfoque:
fuente
No, no es cierto en absoluto :( He aquí por qué:
Primero, no es de alta resolución. Incluso el video 1080P ("Full HD"), que no todas las cámaras pueden hacer, tiene solo 2 megapíxeles. Esa es una fracción de la resolución del sensor. El video 720P es de 1 megapíxel.
En segundo lugar, el video usa una tasa de compresión mucho más alta que las imágenes JPEG fijas, porque el video requiere mucho ancho de banda. Esto significa que los cuadros de video resultantes están (generalmente) más comprimidos que una imagen fija equivalente. Además, en la mayoría de los formatos de video (incluidos AVCHD, H.264 / AVC, varios formatos MPEG / DivX, pero no "Motion JPEG"), la mayoría de los cuadros de video usan "compresión entre cuadros", lo que significa que no se almacenan como imágenes en su derecho propio pero como datos de transformación para aplicar a otros marcos recientes o cercanos.
En video, es deseable una cierta cantidad de desenfoque de movimiento, pero en imágenes fijas no le gustaría tanto. 1/48 a 1/60 de segundo es normal para 24P y 30P para tener una sensación de desenfoque de movimiento natural (el efecto se llama "ángulo de obturación" después de las viejas cámaras de cine). De lo contrario, el movimiento puede parecer antinatural. En imágenes fijas, el movimiento de congelación con una velocidad de obturación de 1 / 250s o más rápido se ve bien, y a menudo es deseable.
Los sensores digitales a menudo no pueden proporcionar una imagen de tan buena calidad cuando se encuentran en el modo "Vista en vivo", donde no hay un obturador físico, sino que continuamente están obteniendo fotogramas del sensor. En los CCD esto se manifiesta como rayas verticales; en CMOS hay otros problemas (uno de ellos es la ondulación durante el movimiento de la cámara, conocido como "efecto de obturador rodante"). El obturador que funciona al tomar imágenes fijas permite que el sensor use un modo diferente donde no tiene que reiniciarse tan rápido y puede tomar una imagen de alta calidad con menos ruido.
El video a menudo tiene un filtrado adicional aplicado que un still, lo que pierde algunos detalles. Uno importante es el entrelazado, que efectivamente arroja una gran cantidad de resolución vertical. Sin embargo, no hay muchas cámaras fijas con función de video que admitan el entrelazado. Muchos videos todavía tendrán un filtro antialiasing aplicado, que suaviza la imagen pero puede ayudar con la compresión y reducir el muaré. Dependiendo de la cámara, el video también puede tener una mayor nitidez aplicada, aunque hoy en día con HD esta práctica no es tan frecuente / perjudicial.
A menos que no tenga otro método, no lo recomendaría. De hecho, probablemente aún no lo recomendaría, incluso si fuera su única opción. Pero si siguió adelante con esto, asegúrese de que puede hacer 1080P, configure la velocidad de obturación lo suficientemente rápido como si estuviera disparando y use el formato Motion JPEG (no AVC ni ninguno de los otros formatos que mencioné anteriormente). Y date cuenta de que estás obteniendo básicamente 2 megapíxeles.
Editar: desde que escribí esta respuesta hace algún tiempo, ya no estoy convencido de que el modo Motion JPEG (si su cámara lo admite) es una buena idea para esto. Su cámara necesitaría una tasa de bits mucho mayor para la misma calidad. Si pudiera usar video HD normal (por ejemplo, h.264 o AVCHD, etc.) y encontrar alguna forma de encontrar los cuadros I, eso podría ser mejor. Sin embargo, todavía no creo que sea una buena idea en general. Las DSLR modernas admiten modos de disparo continuo mucho más rápidos, incluidos algunos que pueden bloquear el espejo o disminuir la resolución y disparar más rápido, etc.
fuente
Usaré mi propia cámara (Pentax K-5) como ejemplo (ancho x alto):
Entonces, no creo que sea una foto de alta resolución. Dicho esto, obtener la toma en cualquier resolución es mejor que no obtenerla. :)
fuente
Echa un vistazo a las cámaras rojas , si esto es algo que realmente quieres probar. Toda su razón de ser es disparar a algo así como 5x HD, y cada una sería una toma de 10 megapíxeles.
Por supuesto, no son baratos, por lo que podría ser una mejor idea conseguir una cámara capaz de disparar, digamos, 8 fps durante unos segundos y peinar esas fotos para ese momento perfecto. He descubierto que 5-6 fps durante 3 segundos suele ser tiempo más que suficiente para obtener una buena toma, o al menos, proporciona el número máximo de fotogramas que quiero ver por ráfaga. Si vas a la velocidad de video completa, esa es una gran cantidad de datos para combinar solo para uno.
fuente
Esto debería haber sido un comentario a la publicación de @thomasrutter, pero aún no puedo comentar (falta de reputación).
Su punto sobre MJPEG versus AVC no es del todo correcto. Es cierto que MPEG-4 Parte 10 (AVC /H.264) generalmente no graba cada cuadro como un cuadro I (clave / cuadro completo). Sin embargo, no hay nada en la especificación que lo prohíba, y algunas cámaras solo graban fotogramas I.
De lo que está equivocado es de los beneficios de MJPEG sobre H.264, y su argumento sobre por qué. Comenzaré con una breve explicación sobre cómo se reconstruyen los cuadros a partir de un H.264 (u otros formatos de códec de video). El video se codificará en tres tipos diferentes de cuadros, cuadros intracodificados (cuadros I), cuadros codificados predictivos (cuadros P) y cuadros codificados predictivos bidireccionalmente (cuadros B). Una trama I es una versión comprimida de una trama "en bruto" completa. Se puede reconstruir solo como un JPEG (o un solo cuadro en una secuencia MJPEG). Una trama P, por otro lado, hace referencia a las tramas I y P, y necesitará reconstruirlas. Un cuadro B también puede hacer referencia a los cuadros I y P siguientes. Es mucha más información sobre esto en Wikipedia.
La diferencia entre H.264 y MJPEG es cómo funciona la compresión y no qué tan buena es. Cada cuadro individual en un video digital puede ser completamente reconstruido, utilizando información que está en el archivo / flujo de video. H.264 dará mejores resultados que MJPEG, incluso cuando exporta un cuadro, a la misma velocidad de bits. Esto es válido para la mayoría de las tasas de bits (no estoy seguro acerca de tasas de bits muy bajas). Hay más información y varias pruebas en línea, y un buen lugar para comenzar es compress.ru .
La única desventaja con H.264 es la complejidad computacional en la reconstrucción de un solo cuadro. H.264 requiere mucha más potencia de procesamiento que MJPEG. Sin embargo, esto no es un problema en una computadora moderna.
fuente