Descubre el arte de publicar
iPhone

¿Las cámaras del iPhone se han vuelto demasiado inteligentes?

¿Las cámaras del iPhone se han vuelto demasiado inteligentes?

A fines de 2020, Kimberly McCabe, ejecutiva de una firma de consultoría en el área de Washington, DC, actualizó de un iPhone 10 a un iPhone 12 Pro. La cuarentena había llevado a McCabe, madre de dos hijos, a invertir más esfuerzo en documentar la vida familiar. Pensó que el nuevo teléfono inteligente, que había sido lanzado el mes anterior y presentaba una cámara mejorada, mejoraría la calidad de sus instantáneas amateur. Pero el 12 Pro ha sido una decepción, me dijo recientemente, y agregó: «Me siento un poco engañada». Cada imagen parece salir demasiado brillante, con colores cálidos desaturados en grises y amarillos. Algunas de las fotos que McCabe toma de su hija en la práctica de gimnasia resultan extrañamente borrosas. En una imagen que me mostró, los pies levantados de la niña se manchan como una acuarela desordenada. McCabe dijo que, cuando usa su antigua cámara réflex digital de lente única (DSLR), «lo que veo en la vida real es lo que veo en la cámara y en la imagen». El nuevo iPhone promete fotografía de «siguiente nivel» con la facilidad de presionar un botón. Pero los resultados parecen extraños y misteriosos. “Hazlo menos inteligente, lo digo en serio”, dijo. Últimamente se ha acostumbrado a llevar un Pixel, de la línea de teléfonos inteligentes de Google, con el único propósito de tomar fotografías.

Según los informes, Apple ha vendido más de cien millones de unidades del iPhone 12 Pro y más de cuarenta millones del iPhone 13 Pro desde su debut, en septiembre del año pasado. Ambos modelos se encuentran entre las cámaras de consumo más populares jamás fabricadas y también entre las más potentes. Las lentes de nuestros teléfonos inteligentes son aberturas diminutas, no más grandes que el botón de una camisa. Hasta hace poco, tenían pocas posibilidades de imitar la función de los objetivos de las cámaras profesionales de tamaño completo. Las cámaras de los teléfonos lograron los estándares de un apuntar y disparar digital básico; muchos de nosotros no esperábamos nada más. Sin embargo, con los últimos modelos de iPhone, Apple está tratando de hacer que las minúsculas cámaras de sus teléfonos funcionen lo más posible como las cámaras tradicionales, y hacer que cada foto que tomen parezca el trabajo de un profesional experimentado. (De ahí los nombres 12 y 13 «Pro», que se distinguen de los modelos anteriores de iPhone 12 y 13 principalmente por sus cámaras más sofisticadas). El iPhone 13 Pro toma imágenes de doce megapíxeles, incluye tres lentes separados y utiliza el aprendizaje automático para automáticamente ajustar la iluminación y el enfoque. Sin embargo, para algunos usuarios, todas esas funciones de optimización han tenido un efecto no deseado. haluro, un desarrollador de aplicaciones de cámara, publicó recientemente un examen cuidadoso del 13 Pro que notó fallas visuales causadas por la fotografía inteligente del dispositivo, incluido el borrado de los cables del puente en una toma de paisaje. “Su conjunto complejo y entretejido de componentes de software ‘inteligentes’ no encaja del todo bien”, afirma el informe.

En enero, cambié mi iPhone 7 por un iPhone 12 Pro y me quedé consternado por el rendimiento de la cámara. En el 7, la leve aspereza de las imágenes que tomé parecía un producto lógico de las capacidades limitadas de la cámara. No me importaban las imperfecciones como el «ruido digital» que ocurría cuando un sujeto estaba poco iluminado o demasiado lejos, y me gustaba que cualquier edición de fotos dependiera de mí. En el 12 Pro, por el contrario, las manipulaciones digitales son agresivas y no solicitadas. Uno espera que la cara de una persona frente a una ventana iluminada por el sol se vea oscurecida, por ejemplo, ya que una lente de cámara tradicional, como el ojo humano, solo puede dejar pasar la luz a través de un solo tamaño de apertura en un instante dado. Pero en mi iPhone 12 Pro, incluso una cara retroiluminada aparece extrañamente iluminada. La edición podría hacer una foto teóricamente mejorada (es agradable ver caras), pero el efecto es espeluznante. Cuando presiono el botón del obturador para tomar una foto, la imagen en el marco a menudo aparece por un instante como lo hizo a simple vista. Luego se aclara y se ilumina en algo irreconocible, y no hay forma de revertir el proceso. David Fitt, un fotógrafo profesional con sede en París, también pasó de un iPhone 7 a un 12 Pro, en 2020, y todavía prefiere la cámara menos potente del 7. En la 12 Pro, «la fotografío y parece sobreprocesada», dijo. “Traen detalles en las altas luces y en las sombras que a menudo son más de lo que ves en la vida real. Parece demasiado real.

Para una gran parte de la población, “teléfono inteligente” se ha convertido en sinónimo de “cámara”, pero la verdad es que los iPhone ya no son cámaras en el sentido tradicional. En cambio, son dispositivos a la vanguardia de la “fotografía computacional”, un término que describe las imágenes formadas a partir de datos y procesamiento digitales tanto como a partir de información óptica. Cada imagen registrada por la lente se modifica para acercarla a un ideal preprogramado. Gregory Gentert, un amigo que es fotógrafo de bellas artes en Brooklyn, me dijo: “He intentado fotografiar con el iPhone cuando la luz se vuelve azulada al final del día, pero el iPhone intentará corregir ese tipo de cosas. .” Se edita un púrpura oscuro y, en el proceso, se borra, porque el tono se evalúa como indeseable, como un defecto en lugar de una característica. El dispositivo “ve las cosas que estoy tratando de fotografiar como un problema a resolver”, agregó. El procesamiento de imágenes también elimina el ruido digital, suavizándolo hasta convertirlo en un desenfoque suave, lo que podría ser la razón detrás de las manchas que McCabe ve en las fotos de la gimnasia de su hija. La «solución» termina creando una distorsión más notable que cualquier error percibido en el original.

A principios de este mes, el equipo de iPhone de Apple accedió a proporcionarme información sobre las últimas actualizaciones de la cámara. Un miembro del personal explicó que, cuando un usuario toma una fotografía con los iPhones más nuevos, la cámara crea hasta nueve cuadros con diferentes niveles de exposición. Luego, una característica de «Deep Fusion», que existe de alguna forma desde 2019, fusiona las partes más claras de todos esos cuadros, píxel por píxel, formando una sola imagen compuesta. Este proceso es una versión extrema de alto rango dinámico, o HDR, una técnica que anteriormente requería algunos conocimientos de software. (Como estudiante universitario, me costaba replicar HDR en las fotos de mi cámara tradicional usando Photoshop para superponer varios marcos y luego recortar las partes deseables). La cámara del iPhone también analiza cada imagen semánticamente, con la ayuda de un gráfico. unidad de procesamiento, que selecciona elementos específicos de un marco (rostros, paisajes, cielos) y expone cada uno de manera diferente. Tanto en el 12 Pro como en el 13 Pro, descubrí que el procesamiento de imágenes hace que las nubes y las estelas se destaquen con más claridad de lo que el ojo humano puede percibir, creando cielos que se asemejan a los horizontes sobresaturados de una película de anime o un videojuego. Andy Adams, un bloguero de fotografía desde hace mucho tiempo, me dijo: «HDR es una técnica que, como la sal, debe aplicarse con mucho criterio». Ahora cada foto que tomamos en nuestros iPhones ha tenido la sal aplicada generosamente, ya sea que sea necesario o no.

En el siglo XX, la fotografía permitió la reproducción masiva de obras de arte, ampliando su accesibilidad y degradando su impacto individual. Así como las obras de arte tienen “auras” físicas, como lo describió Walter Benjamin, las cámaras tradicionales producen imágenes con cualidades distintivas. Piense en la fotografía prístina de la cámara Leica tomada con una lente de longitud fija, o en la instantánea instantánea de Polaroid con su exposición irregular. Las imágenes creadas en esos dispositivos son inseparables de la mecánica de los propios dispositivos. En cierto modo, el iPhone ha hecho que la cámara sea infinitamente reproducible. Las herramientas digitales del dispositivo pueden imitar cualquier cámara, lente o película en cualquier momento, sin la habilidad manual que era necesaria en el pasado, similar a la forma en que las primeras fotografías replicaban las pinceladas de los pintores. Las imágenes resultantes del iPhone tienen un efecto desestabilizador en el estado de la cámara y del fotógrafo, creando una copia superficial de la técnica fotográfica que socava el impacto del original. La foto promedio del iPhone se esfuerza por aparentar profesionalismo e imita el arte sin siquiera llegar allí. Todos somos fotógrafos profesionales ahora, con un toque de un dedo, pero eso no significa que nuestras fotos sean buenas.

Después de mis conversaciones con el miembro del equipo de iPhone, Apple me prestó un 13 Pro, que incluye una nueva función de estilos fotográficos que está destinada a permitir a los usuarios participar en el proceso de fotografía computacional. Mientras que los filtros y otras herramientas de edición familiares funcionan en una imagen completa a la vez, después de tomarla, Styles incluye los ajustes en las etapas de análisis semántico y selección entre fotogramas. El proceso es un poco como ajustar la configuración de una cámara manual; cambia la forma en que se tomará la foto cuando se presione el botón del obturador. Un dial de tono combina brillo, contraste, saturación y otros factores, y un dial de calidez cambia la temperatura de color de las fotos. Los efectos de estos ajustes son más sutiles que los antiguos filtros de posprocesamiento del iPhone, pero se mantienen las cualidades fundamentales de las fotografías del iPhone de nueva generación. Son fríamente crujientes y vagamente inhumanos, atrapados en el valle misterioso donde la expresión creativa se encuentra con el aprendizaje automático.

Una de las características más dramáticas de la fotografía computacional de Apple es el Modo Retrato, que imita la forma en que una lente con una apertura amplia captura un sujeto en primer plano con un enfoque nítido mientras oculta lo que hay detrás. Disponible en los modelos de iPhone desde 2016, este efecto no se logra con la lente en sí, sino con filtros algorítmicos que determinan dónde está el sujeto y aplican un desenfoque artificial al fondo. Bokeh, como se conoce esa cualidad diáfana, alguna vez fue el dominio de las revistas de moda y las sesiones de fotos de moda. Ahora es simplemente otra elección estética abierta a cualquier usuario, y la simulación digital suele ser poco convincente. Toma una foto en modo retrato y verás dónde el algoritmo es imperfecto. Tal vez el contorno del cabello de un sujeto se verá borroso, porque el sistema no puede medir sus bordes, o una figura secundaria se registrará como parte del fondo y se borrará por completo. Esta versión de bokeh aproximada a la máquina significa amateurismo en lugar de artesanía. Los aficionados a los que no les gustan estos trucos tecnológicos pueden buscar cámaras digitales más antiguas o pueden volver a filmar. Pero las nuevas cámaras del iPhone, más de lo que la mayoría de los usuarios se dan cuenta, están forjando una plantilla que está remodelando la naturaleza de la creación de imágenes junto con nuestras expectativas de lo que debería ser una fotografía. David Fitt, el fotógrafo con sede en París, dijo: “Establece un estándar de cómo se ve una imagen normal. Espero, en el futuro, no tener clientes que me pidan este tipo de look”.