Adobe, como todos los programas, está evolucionando hacia la inteligencia artificial para no quedarse atrás. Así que una de las cosas que hizo fue sacar los filtros neuronales para Adobe Photoshop. En la nueva actualización han mejorado el comportamiento del filtro Desenfoque de profundidad. Así que vamos a analizarlo para ver si podemos olvidarnos del diafragma o no.
Está pensado para las fotografías hechas con móviles. Como no tienen diafragma, este filtro puede mejorar el resultado de la aplicación que utilicemos. Lo mejor de todo es que lo podemos aplicar en cualquier archivo.
Todavía lo encontramos dentro del apartado Beta de los filtros neuronales. Eso quiere decir que siguen probándolo y esperando que nosotros los usuarios les vayamos guiando hasta que quede perfecto. Aunque a muchos les pueda molestar trabajar como conejillos de indias y no tener ni una compensación.
Por este motivo, y después de jugar con él en tres ordenadores distintos, todos con un procesador i7 y como mínimo 16 GB de RAM, me he encontrado con muchos problemas de funcionamiento. Este filtro bloquea el programa, unas veces funciona, otras no...
Los resultados son mejores que en la versión anterior. Y por lo que dice Piximperfect, es más rápido porque ya no trabaja en la nube. Todas las operaciones se hacen en nuestro ordenador, así que ya no tenemos que tener miedo de compartir nuestras fotografías.
La nueva versión del filtro neuronal 'Desenfoque de profundidad'
Esta nueva versión consume muchos recursos. El efecto tarda en aparecer en nuestra pantalla. Depende de la tarjeta gráfica que tengamos. Si detecta que no puede trabajar con ella acudirá al procesador.
Solo tenemos que activar el filtro y esperar a que haga su trabajo. Esa es su principal virtud y su principal problema si queremos resultados profesionales. No hay forma de crear una máscara para decirle exactamente qué es lo que queremos desenfocar. Trabaja por libre, para entendernos. Y hay veces que no acierta. Y no queda más remedio que aceptar los resultados.
Pero en esta ocasión tiene funciones nuevas que permiten albergar alguna esperanza. Depende de la suerte, más bien de cómo sea la fotografía, para que el acabado final sea perfecto. Así que voy a explicar los pasos para lograr el mejor resultado:
- Elegimos la fotografía adecuada. En este caso es una escultura que encontré en un barrio madrileño.
- Después de revelarla en Adobe Lightroom decido abrirla como objeto inteligente en Photoshop (Fotografía>Editar en>Abrir como objeto inteligente).
- Es el momento adecuado para dar el desenfoque a la fotografía, así que voy a Filtro>Neural Filters y activo Desenfoque de profundidad. Si todavía no lo has descargado es el momento.
- Para que funcione de forma correcta lo mejor es marcar la opción Enfocar sujeto. Es la nueva función que permite un resultado más fiable.
- Si queremos exagerar el efecto, podemos subir el parámetro Intensidad de desenfoque hasta 100.
- Y con el parámetro Rango focal logramos simular el desenfoque del objetivo que queramos. En este caso no me queda más remedio que subir a 100 para evitar problemas con el borde de la escultura en la parte inferior.
- Para terminar podemos cambiar la Temperatura, la Saturación o el Brillo del fondo, pero no encuentro el motivo fotográfico para hacerlo.
- Lo más interesante es el parámetro Granulado que permite recuperar el ruido en la parte desenfocada para que quede más natural.
- Tenemos la posibilidad de elegir varias salidas para el resultado. Si partimos de un objeto inteligente lo mejor es, desde luego, Filtro inteligente. Pero si nuestro ordenador sufre por toda la información que está moviendo tenemos distintas opciones como Capa nueva que agilizan el funcionamiento del filtro.
Si no nos convence el resultado siempre podemos marcar la opción Mapa de profundidad, muy útil para otros efectos interesantes dentro de la fotografía. Ya nos diréis cómo os funciona, porque nosotros lo hemos pasado realmente mal.
Cuando funcione bien (no sabemos dónde está el fallo con seguridad) será uno de los filtros más interesantes del programa. Pero mientras esté es versión beta pocas cosas podemos hacer con él.