Uno de los aspectos de calidad en la fotografía es el rango dinámico. Con sistemas tan limitados como los de los móviles, se podría creer que este sería uno de los puntos débiles en sus sistemas fotográficos. Sin embargo, la tecnología sigue rompiendo los límites de estos sistemas para producir resultados de alta calidad. Aquí os contamos cómo lo logran.
Miles de operaciones por segundo
Uno de los puntos fuertes en la fotografía móvil es que los dispositivos cuentan con procesadores más poderosos que incluso los de muchas cámaras de alto rango. Si bien no es un procesador cuyas operaciones se dediquen únicamente a la imagen, le permiten al sistema hacer miles de fotos en milisegundos que están en un ciclo de reciclado. Estas imágenes pasan por procesos de análisis y optimización que permiten promediar y obtener una imagen mucho más limpia.
En el pasado explicamos cómo la fotografía computacional podía utilizar estos procesos para lograr tomas limpias en la noche como con el modo de astrofotografía de los Google Pixel, puede hacer un análisis de la escena para emular y modificar la luz como en los iPhone y además permite obtener cada vez fotos más nítidas y sin ruido a partir de su cadena de procesos de imagen.
Desde la toma, las imágenes almacenadas en el buffer del sistema son procesadas para ajustar la exposición, el balance de blanco, dar nitidez, eliminar ruido, crear mapas de tono, mapas de luz, establecer la detección de rostros y elementos. Ahora, con agregados como el sensor LiDAR de los iPhone, también encontramos la elaboración de mapas de profundidad que perfeccionan los procesos de espacio y además permiten obtener un control de foco superior.
Si bien una única fotografía tiene un rango dinámico reducido, la suma de varias imágenes permite al procesador expandir dicho rango. Siempre hay un pequeño proceso de HDR ocurriendo de fondo en nuestras tomas para dar un rango óptimo de manera digital. Si queremos ampliar ese rango, activamos el modo HDR donde comenzará a hacer el proceso con un mayor número de tomas con mayor rango de diferencia de exposición.
El sensor
Sin embargo, no es solo un proceso que solo se base en lo computacional. La tecnología de estos sensores es cada vez mejor.
Algunos como los de OmniVision tienen estructuras que permiten hacer más capturas por segundo, permitiendo al buffer tener más tomas que promediar para un mejor resultado. Otros, como los de Samsung, se están enfocando en realizar capturas de doble conversión de ganancia, lo que permite ampliar el rango desde la captura al tener dos ISO nativos. A esto podemos sumar las tecnologías de acople de pixeles que ayudan al sensor a recibir más luz, a coste de sacrificar resolución.
Estas tecnologías están enfocadas cada vez más en la recepción de luz para que, aún si el tamaño de píxel es pequeño y recibe menos luz que un sensor de mayor tamaño o menor resolución, logren optimizar la señal al máximo para ofrecer una imagen nítida y sin ruido. Esto se ve reflejado en capturas que ya tienen profundidad de color de 10 bits y algunos modelos de gama alta ya están en los 12 bit de profundidad de captura.
Ahora que ya sabemos en qué se basa el rango dinámico de nuestras imágenes de smartphone, en una siguiente edición veremos cómo ver este rango en nuestros móviles y encontrar la mejor calidad de imagen a partir de este parámetro.