En el título de este post no hay lugar para las licencias poéticas. Ni siquiera para la filosofía. Ese interrogante tiene fundamento. Probablemente recordaréis un post que publicamos hace algo más de tres semanas, y en el que comparábamos la agudeza visual de nuestros ojos y la resolución de los sensores de nuestras cámaras de fotos.
Siguiendo la estela de aquel post, lo que pretendo en esta entrada es indagar en algo que seguro que muchos de vosotros ya conocéis, pero que probablemente sorprenderá a los entusiastas de la fotografía que aún no han reparado en ello. Vaya por delante un anticipo: el mundo no es como lo vemos nosotros; se parece más a lo que nos muestran nuestras fotografías, si pudiésemos verlas como realmente son.
Mi intención es que este post sea lo más didáctico e inteligible posible, por lo que me parece razonable sacrificar un poco de precisión en aras de facilitar su lectura. Esta es la razón por la que he decidido simplificarlo, y, por supuesto, situar nuestro sistema de visión en el mismo contexto fotográfico en el que nuestras cámaras se mueven como «pez en el agua».
Nuestro cerebro, ese bendito traidor
Nuestro sistema de visión se nutre, grosso modo, de dos herramientas esenciales: nuestros ojos y nuestro cerebro. Los primeros capturan las imágenes de una forma muy similar a como lo hacen las cámaras de fotos. Sin ánimo de entrar en demasiados detalles, nos viene bien recordar que la luz que reflejan los objetos de nuestro entorno penetra en el interior de nuestros ojos a través de la pupila, que, combinada con el iris, hace las veces de diafragma. Y, posteriormente, queda «registrada» en la retina, que podría ser equiparable al sensor de nuestras cámaras de fotos.
Curiosamente, las imágenes quedan plasmadas en la retina en posición invertida debido a la geometría de nuestros ojos y al ángulo con el que incide la luz reflejada en la pupila. En la retina residen los conos y los bastones, dos tipos de células fotorreceptoras, y, por lo tanto, similares a los fotorreceptores de los sensores CMOS y CCD.
Los conos son los responsables de nuestra percepción del color y resultan poco sensibles a la intensidad de la luz, mientras que los bastones no nos ayudan a percibir los colores, pero resultan esenciales para medir la intensidad lumínica. De esta forma, estos últimos consiguen cuantificar el brillo y la tonalidad.
Volvamos a la imagen invertida almacenada en nuestra retina. La información que describe esa imagen será transportada hasta nuestra corteza cerebral a través del nervio óptico en forma de impulsos eléctricos, de la misma manera en que la imagen del sensor de nuestra cámara es transferida a una memoria intermedia, y de ahí, si queremos obtener un fichero JPEG, al procesador de la cámara. Nuestro cerebro se asemeja mucho a este último componente.
Sabemos que si deseamos obtener una imagen que respete escrupulosamente lo que capturaron la óptica y el sensor de nuestra cámara, debemos quedarnos con el fichero RAW, aun a sabiendas de que tendremos que ajustarla a posteriori de forma manual nosotros mismos. Pero, si nos decantamos por una imagen más ligera y «maquillada», deberá ser manipulada por el procesador de la cámara, que nos devolverá una composición, en el mejor de los casos, ligeramente diferente a la capturada realmente por el sensor.
Nuestro cerebro hace algo muy similar al procesador de nuestra cámara. Por supuesto, invierte la imagen que recibe de la retina para colocarla correctamente, pero, además, realiza muchas otras manipulaciones en las que no podemos intervenir, y que, por lo tanto, son involuntarias.
Todo un centro de cálculo en nuestra cabeza
La lista de tareas es enorme: compone una sola imagen estereoscópica a partir de los dos «fotogramas» que recibe, uno de cada ojo; interpreta la posición en el espacio de cada objeto; calcula el tamaño de algunos elementos difíciles de «medir» comparándolo con el de otros objetos cercanos mejor conocidos, y un largo etcétera. Y todo esto lo realiza a una velocidad endiablada y sin que tengamos que preocuparnos por ello. Sin duda, es un auténtico superordenador que haría palidecer a la máquina más potente de cualquier centro de cálculo del planeta.
Pero una de las tareas más curiosas que acomete nuestro cerebro es su capacidad de corregir aquello que no le «cuadra» de forma automática. Todos sabemos que si retratamos a una persona colocando la cámara muy por debajo de su centro geométrico, en un plano contrapicado, o muy por encima, en un plano picado, la fotografía nos mostrará una desproporción evidente entre las partes superior e inferior de su cuerpo.
Sin embargo, si, por ejemplo, nos subimos a una silla y observamos «desde las alturas» a una persona muy próxima a nosotros, no percibiremos esa desproporción aparente en su cuerpo. Nuestra retina compondrá la imagen de una forma muy similar a como lo hace la cámara de fotos, pero nuestro cerebro es muy avispado, y, cuando la recibe, la manipula para corregir esa «deformidad».
Este es solo un ejemplo de las muchas manipulaciones que realiza nuestro cerebro sin que nos percatemos de ello. En mi modesta opinión, probablemente esta injerencia es necesaria y facilita nuestra relación y comprensión del entorno. Pero, obviamente, el mundo no es exactamente como lo vemos. Probablemente es bastante parecido a como lo capturan nuestra cámara de fotos y nuestros ojos, pero difiere sensiblemente de la manera en que nos lo muestra nuestro cerebro.
Quizás esto explique en cierta medida que muchos entusiastas de la fotografía prefiramos contemplar la realidad a través del visor de nuestra cámara de fotos. Lástima que, indefectiblemente, nada escapa a la manipulación de nuestra mente.
En Xataka Foto | ¿Sabes qué resolución tienen tus ojos? Si quieres averiguarlo, sigue leyendo
Ver 7 comentarios