Hoy toca probablemente una de las asignaturas más complejas en el proceso de compresión de vídeo. Esta parte es vital para el etalonador, la persona que se encargará de corregir los colores y procesarlos para tener un resultado llamativo. Y también para efectos especiales. Una especificación poco entendida, que carece de importancia para muchos aficionados, y donde, de nuevo, vamos a ver que tenemos que pedirles mucho más a las empresas.
No somos tan sensibles al color
De tal afirmación surgen las técnicas de muestreo de color que suelen emplearse en la mayoría de cámaras de vídeo. Cabe recalcar que las cámaras que graban RAW obviamente no entran en este juego, a dichas cámaras es mejor denominarlas cámaras de cine.
El ojo humano tiene mucha más sensibilidad a las variaciones de luminancia que al color. Es cierto que cuando miramos una fotografía fija, podemos apreciar las más pequeñas diferencias, especialmente aquellos con la vista más entrenada. No obstante, en vídeo, debido al movimiento de las imágenes, se reduce mucho la posibilidad de apreciar dichas diferencias.
Como en vídeo tenemos un mínimo de 24 imágenes por segundo, resulta obligatorio comprimir, incluso a día de hoy, para descargar de trabajo al procesador, el buffer y reducir el ancho de banda. Y para ello, hace falta comprimir la información de color. Lo cierto es que, a primera vista, no se traduce en tanta pérdida en cuestiones de calidad como puede parecer.
Existen tres formas habituales de emplear actualmente el muestreo de color: 4:2:0, 4:2:2 y 4:4:4. Existen otras, como el 4:1:1 pero ya ha caído en desuso. Para expresarlo de forma universal, hablamos de Y'CbCr, donde:
Para tampoco volvernos demasiado locos con la teoría, solo decir que, como puede verse, en términos comparativos podemos entenderlo como que el valor 4 corresponde a toda la información, es decir, sin compresión. Así pues el 4:2:2 tendrá la mitad de información de color que el 4:4:4. El verde se calcula en base al resto mediante complejos cálculos. Y si en un editor, o por la red de redes, os encontráis con las siglas YUV al tratar estos temas, decir que es lo mismo que Y'CbCr, aunque dicha nomenclatura pertenece a la época del analógico y es técnicamente incorrecta cuando hablamos de vídeo digital.
4:2:0, el estándar habitual
El muestreo de color 4:2:0 es el empleado internamente por la mayoría de cámaras DSLR y muchas de vídeo, incluso profesionales. Lo que implica este tipo de muestreo, es que se recoge toda la información de luminancia, mientras que se reduce la de crominancia a aproximadamente un cuarto, comprimiendo de forma alternada el rojo y el azul (Cr y Cb). Podemos decir pues que la resolución de color se reduce en gran cantidad.
El resultado en nuestras imágenes respecto a un muestreo de color 4:2:2, más habitual en el ámbito profesional, u obtenible muchas veces a través de la salida HDMI de la cámara, es prácticamente nulo en el material en bruto. Hay que afinar mucho el ojo y ampliar la imagen al menos hasta un 200%, al margen de congelarla, para notar algo de diferencia.
Ojo, un pequeño apunte respecto a la salida HDMI: siempre que podáis y si no lo tenéis claro, mirad las pruebas de otros para comprobar que realmente vayais a ganar algo. No siempre la salida HDMI da mejores resultados, ya que en ocasiones está mal optimizada. En la red hay múltiples ejemplos con la Nikon D800, una cámara cuyo muestreo 4:2:2 se anunció a bombo y platillo junto al Atomos Ninja II.
Entonces, ¿por qué dices que deben mejorar?
Como ya indicaba al principio, las diferencias en el material son difícilmente distinguibles. Si, por ejemplo, comparáramos material de una Canon C100 y una C300, notar diferencias sería casi imposible, pese a que tenemos el doble de bitrate y de información de color en la segunda (4:2:2 respecto a 4:2:0). No toméis mi palabra, entrad en esta página dedicada al muestreo de color de RED, donde podréis ver unas buenas comparativas. Como veis, en la teoría las diferencias son enormes, pero en imágenes reales, son muy pequeñas. Si tenéis en cuenta que estáis mirando una imagen estática, y aún así no es fácil de distinguir, podéis haceros una idea de lo difícil que es con imágenes en movimiento.
No obstante, una constante en producciones audiovisuales son los chromas, esas telas verdes que se emplean para luego introducir ciertos efectos. Y amigos, hacer un chroma con material 4:2:0 es el horror. Lo más probable, es que no salga bien. Cuanta mayor información de color, esto va a sonar a lógica simple, más fácil es aislar un color y separarlo del resto.
Pero no está ahí la única diferencia. Si nuestro producto narrativo es muy natural y no requiere de chromas, aún así el 4:2:0 es algo problemático. Y es que cuando pasamos al etalonaje, la menor información de crominancia va a resultar en una menor capacidad para modificar los colores al gusto, y nos obligará a estar mucho más atentos a los distintos monitores para comprobar que no ocurran extraños en la imagen. Las diferencias aquí se amplían exponencialmente, y la diferencia entre 4:2:0 y 4:2:2 son todo un mundo.
Ahora, un pequeño truco ya que has llegado hasta aquí: si trabajas con una DSLR o cualquier otra cámara con muestreo 4:2:0, no dudes en hacer una conversión a 4:2:2 de los brutos (por ejemplo, a Prores 422 HQ). Ello permite que en el etalonaje seamos algo más agresivos, sin que aparezca el temido banding, gracias a que le das algo de mayor espacio al códec para las modificaciones.
¿Qué sería lo ideal?
RAW si tienes una cámara de cine y 4:4:4 si hablamos de vídeo, son los ideales, por supuesto. Pero la cantidad de datos es tremenda e insostenible para una gran mayoría pese a la paulatina reducción en los costes de almacenamiento, además de que el renderizado se volvería más complejo si no tienes un ordenador muy potente. Por otro lado, el 4:2:0 es muy correcto, no obstante se sitúa por debajo del estándar televisivo, generalmente 4:2:2 a 50 mbit/s, tiene problemas con los chromas y menor capacidad de etalonaje.
Por todo esto, es hora de que el 4:2:2 sea estándar interno en las cámaras también. La Canon C300 por ejemplo, tiene un códec ejemplar, y que debería ser el estándar por lo bajo en tantas otras cámaras.
No es pesado a 50 mbit/s, cumple a la perfección con los estándares internacionales de vídeo (BBC, TVE y varias cadenas estadounidenses, cada una con sus diferencias en materia de resolución y frecuencia, proponen 4:2:2 a 50mbit/s) y con un sensor como es su caso dedicado, se traduce en muy buenos resultados. Tanto, que en EEUU es una cámara de referencia. Hay más cámaras de Canon y Sony que emplean dicho bitrate y muestreo de color precisamente porque es un estándar televisivo, pero hablamos de cámaras más pensadas para el broadcasting y la emisión en directo, y no tanto para productos narrativos.
Se trata, simplemente, de ofrecernos a los usuarios lo que realmente es útil y necesario. Y profesional. Basta de intentar reinventar la rueda con códecs extraños, de tener que añadirle otro cacharro a la cámara para tener 4:2:2. Debería ser un estándar interno, y parte de las especificaciones anunciadas en las cámaras DSLR también, porque compañeros, cuando algo está en las especificaciones, de repente la gente presta atención y se vuelve algo conocido y mediático. Y si no criticamos estas decisiones, ellos no se van a mover.
Hay quien seguramente esté pensando que pido imposibles, que los procesadores actuales no soportarían algo así, que los costes de la cámara ascenderían una barbaridad. Pues atentos al impresionante procesador de la Canon C300: el Digiv DV III. El mismo de la Canon Legria HF S100 que veis sobre estas líneas. Ojo, hablamos de un procesador puntero. En el año 2009, esto es. Un procesador de hace un lustro que consigue, simple y llanamente, lo que deberíamos exigirle a todas las cámaras que graban vídeo que de verdad tengan pretensiones profesionales.
En Xataka Foto | Todo lo que siempre quisiste saber sobre vídeo: Resolución (Parte 2)
En Xataka Foto | Todo lo que siempre quisiste saber sobre vídeo: códecs (Parte 1)
Ver 5 comentarios