Tras una primera parte densa en el que explicábamos los códecs, puede parecer que hay poco que hablar de algo tan nimio como la resolución: las especificaciones de la cámara lo dejan claro, ¿o no? Full HD, 4K, 720p, UHD, en fin, esas siglas o cifras a las que tantísima importancia y peso se les da. No obstante, estoy seguro que habrás visto cámaras que dan una mayor detalle incluso a veces con menor resolución en las especificaciones que la que usas habitualmente. ¿Por qué pasa esto? Porque querido lector, las marcas nos engañan.
No nos dan la resolución real
Es tan simple como lo lees en el título. Nunca nos dan la resolución real: en su lugar, nos dan la resolución del códec. Para que nos entendamos: si tú sacas una foto a 1280x720, y la reescalas a 1920x1080, la foto final la puedes vender como que es 1080p, pero su resolución real no lo es, y su nitidez y nivel de detalle no va a ser propio de esa calidad. Pues eso pasa con muchas, por no decir todas, las cámaras DSLR cuando graban vídeo.
Da igual si nos vamos a Canon, Nikon o Panasonic. Una 5D Mark III, muy utilizada y defendida como cámara para vídeo, apenas podríamos decir que es 720p (por mucho Full HD que le pongan en las especificaciones), algo parecido pasa con la Nikon D800. No obstante, Panasonic suele acercarse mucho más a lo anunciado: ya la GH2 que usaba hace unos años llegaba cerca de los 900p. Si nos vamos a cámaras de vídeo, y una vez más usaré de ejemplo la Canon C100 al ser la cámara con la que finalizaremos este especial, veremos que esto no pasa. ¿Por qué?
El dichoso y complejo escalado del sensor
Una cámara de fotos es una cámara de fotos, lo repetiré hasta la saciedad. Y aquí viene el mayor handicap de las cámaras de fotos para vídeo, y el motivo de mi afirmación: sus sensores tienen resoluciones que deben ser adaptadas a los estándares de resolución en vídeo. Obviamente, no vamos a grabar vídeo con 36 megapixels con una D810. ¿Cómo convierte la cámara estos 36MP a los escasos 2MP de la resolución Full HD?
Existen varios métodos por los que las cámaras DSLR hacen estas conversiones. Lo más habitual, es el conocido como "line-skipping", como traducción libre podríamos llamarlo método esquiva-líneas. Lo que hacen, a grandes rasgos, es que de todas las líneas de píxeles, solo escanean algunas. Por ejemplo: una sí, tres no, una sí, tres no.
Lo que esto supone, primero, es una carga de trabajo al procesador bastante notable. Lo segundo, es la complicación para alcanzar precisamente esas resoluciones, debido a ciertas complejidades técnicas (dificultad para alcanzar un multiplicador exacto, la antes mencionada alta carga al procesador, etc). Y por supuesto, las estrellas: el moiré y el aliasing. Como veis, muchas complicaciones, y estas últimas inevitables. Bueno, o sí, a costa de reducir la nitidez, y entramos en otro berenjenal.
¿Cómo arreglamos este desaguisado?
La solución es mucho más sencilla de lo que puede parecer, y pasa por hacer cámaras cuya resolución coincida con los estándares de vídeo. Claro, entonces la resolución sería demasiado baja para los estándares de fotografía salvo que nos fuéramos a costosísimas cámaras 5K o superiores.
Pues bien, existe otra solución: múltiplos directos de las resoluciones estándar de vídeo con matriz bayer, escaneando el sensor completo y uniendo en el procesado de la imagen interno que realiza el sensor cada cuatro pixeles (dos verdes, uno azul y uno rojo) en uno para convertir 4K en Full HD. Es sólo un ejemplo, ojo, y es de hecho lo que hacen las Canon C100 y C300, pero existen otras soluciones . Podría hacerse una cámara 8K para foto (Sony podría hacerlo fácilmente), y con un procesado de este tipo, obtener 4K y Full HD de altísima calidad. Tendríamos una cámara de fotos de ultra alta resolución, y un vídeo de alta calidad. Eso sí, el procesador debería ser bastante potente.
Conclusión: queremos sensores mejor pensados
Este problema es el fallo vital de las cámaras de fotos para su uso como cámaras de vídeo, lo que les deja técnicamente tan lejos. Es donde comienzan gran parte de sus problemas, su pecado capital, aunque está lejos de ser el único como veremos próximamente.
De aquí viene el que diga que el bitrate no es tan importante: el bitrate no importaría tanto si el resto de la cámara estuviera bien pensada para vídeo. Por supuesto, subir el bitrate con el Magic Lantern o como se hacía con el hack de la GH2 en su momento mejora resultados con una misma cámara: aumenta la cantidad de datos de cada limitado fotograma, y así aparentemente se reducen los problemas que generan sensores mal pensados. Pero no dan más resolución, y sus mejoras son ínfimas comparado con hacer un sensor bien pensado.
Es por esto que una Canon C100 en Full HD a 24Mbps es tanto mejor que una GH2 con su codec hackeado a 110Mbps, o una Canon 5D Mark III a 80 Mbps, o incluso más nítida que la Panasonic GH4 grabando en 4K y reescalando. Porque su sensor fue pensado para vídeo. Lo mismo pasa con las Sony FS100 o FS700 , cámaras de una calidad incontestable, y muy por encima de lo que Sony ha podido hacer con sus CSC para vídeo, incluída la A7s, al menos con su códec interno. Habrá que ver de qué es capaz con la salida HDMI y el Atomos Shogun.
No dudo de que con el tiempo las herramientas se pondrán al día por necesidades laborales, de hecho cada vez más gente opina que el futuro de la fotografía puede pasar por sacar fotogramas de tramos de vídeo RAW de alta resolución. Pero desde la 5D Mark II está todo demasiado estanco, por mucho 4K que nos quieran meter por los ojos, o códecs pesados que nos exigen máquinas más y más potentes, o posibilidades de slow-motion que solo se usan dos días. Menos 4K, y más hacer las cosas bien. Y a dejar de mentir: queremos resoluciones reales, no la resolución de un dichoso códec.
En Xataka Foto | Todo lo que siempre quisiste saber sobre vídeo: códecs (Parte 1)
Ver 14 comentarios