Las zonas de luz son uno de los primeros conceptos que aprendemos en fotografía. Basados en esta tabla, aprendemos a encontrar un balance en la exposición de la imagen para ver qué tanto rango tenemos de trabajo. Sin embargo, muchos de estos conceptos antiguos tienen una base de discriminación racial en ellas. Google busca cambiar esto con nuevos sistemas de proceso de imagen computacional, creando así una fotografía más inclusiva.
El principal problema de los antiguos procesos fotográficos recae en qué es correcto en la imagen. Por ello, dentro del sistema de zonas se estableció que una correcta exposición debía estar en cierta zona de exposición, pero en sí, los procesos fotográficos no tenían en cuenta la variedad de los distintos tonos de piel oscura. Por lo que usualmente la piel de tez oscura ha sido aclarada para parecer una tez caucásica.
Así mismo, con la llegada de la película de color, los negativos y positivos fílmicos estaban calibrados para una mejor representación de los tonos de piel caucásica. Sin embargo, los tonos de tez oscura o latina tendían a no ser correctos, con dominantes de color o con contrastes de piel equivocados.
Este problema de segregación de la imagen se ha extendido al mundo digital y más recientemente a la imagen computacional. Los algoritmos han sido entrenados con miles y cientos de imágenes, donde hay predominancia con la tez caucásica, haciendo que las decisiones que toman los algoritmos favorezcan este tipo de piel, mientras que las personas de tez oscura se enfrentan a los problemas de siempre: no ser reconocidos por los sistemas de reconocimiento facial, selfies sobreexpuestas porque la cámara quiere buscar un gris medio o un gris claro, tonos de piel con dominantes naranjas y ajustes de contraste automatizado que rescatan los rostros en pieles caucásicas pero no oscuras.
Para combatir esto, Google muestra que se ha aliado con varios creadores de imagen y técnicos que están alterando los algoritmos y entrenándolos para conseguir un sistema de captura que permite capturas naturales de las personas. Esto en son de conseguir un balance ideal en el cual las personas se pueden ver representadas en una imagen de manera natural.
Por lo que se puede ver en el vídeo de Google, los primeros pasos para estas correcciones se centran en el balance de blanco y las curvas de exposición. Pero es cierto que también deben trabajar varios aspectos de imagen que permitan hacer máscaras para trabajar elementos localizados de manera más precisa.
Como reporta The Verge, esta dirección que está tomando Google es muy bienvenida. Con los ajustes realizados y la evolución de entrenar las máquinas de análisis y corregir los algoritmos para una mejor representación, se podrán obtener imágenes naturales que no distorsionen la mirada de estos recuerdos para las personas de tez oscura.