Las fotos de la Luna de Samsung son falsas, pero también lo son muchas fotografías móviles


Es un debate tan antiguo como la propia fotografía. El viernes, El usuario de Reddit u/ibreakphotos publicó algunas fotos de la Luna que hizo que Internet se enfrentara a una pregunta familiar: ¿qué es la «verdad» en la fotografía?

Las imágenes en cuestión muestran una Luna borrosa junto a una versión mucho más nítida y clara. Esta última es una mejor imagen, pero tiene un gran problema. No es real – al menos en el sentido de que la mayoría de nosotros pensamos en una foto como real. En cambio, es una imagen generada por un teléfono Samsung basada en una foto de mierda de la Luna, que luego pasó por un procesamiento sofisticado para modificar algunos de los detalles. Puede parecer una exageración llamar a eso una foto, pero dado todo lo que las cámaras de los teléfonos inteligentes ya hacen, en realidad no es el gran salto que parece ser, sino más bien un pequeño paso.

Samsung no es ajeno al aprendizaje automático: ha pasado los últimos años jugando con un zoom alto mejorado por AI a través de su acertadamente llamado Space Zoom. En la mayoría de las situaciones, Space Zoom combina datos de un teleobjetivo óptico con múltiples fotogramas capturados en rápida sucesión, apoyándose en el aprendizaje automático para generar una imagen mucho más nítida de sujetos distantes de lo que normalmente podría obtener con la cámara de un teléfono inteligente. Es muy bueno.

Eso no es exactamente lo que Samsung parece estar haciendo aquí. Fuera de la fotografía de la Luna, la canalización de procesamiento de Samsung solo funciona con los datos que tiene delante. Refinará los bordes de un edificio fotografiado desde varias cuadras de distancia con una mano inestable, pero no agregará ventanas al lado del edificio que no estaban allí para empezar.

La Luna parece ser un caso diferente, y la prueba inteligente de ibreakphotos expone las formas en que Samsung está haciendo un poco de procesamiento adicional. Pusieron una imagen intencionalmente borrosa de la Luna frente a la cámara, la mostraron en una pantalla y le tomaron una foto. La imagen resultante muestra detalles que posiblemente no podría haber sacado de la foto original porque estaban borrosos; más bien, el procesamiento de Samsung está embelleciendo un poco más: agregando líneas y, en una prueba de seguimiento, colocando una textura similar a la de la Luna. áreas recortadas a blanco en la imagen original. Que no es venta al por major copiar y pegarpero no se trata simplemente de mejorar lo que ve.

Pero… ¿eso es tan malo? La cuestión es que las cámaras de los teléfonos inteligentes ya usan muchas técnicas detrás de escena en un esfuerzo por producir las fotos que te gustan. Incluso si desactiva todos los modos de belleza y las funciones de optimización de escenas, sus imágenes seguirán siendo manipuladas para iluminar rostros y rostros. hacer que los detalles finos resalten en todos los lugares correctos. Tome Face Unblur en teléfonos Google Pixel recientes: si la cara de su sujeto está ligeramente borrosa por el movimiento, usará el aprendizaje automático para combinar una imagen de la cámara ultra ancha con una imagen de su cámara principal para brindarle una imagen final nítida.

¿Ha intentado tomar una foto de dos niños pequeños mirando a la cámara al mismo tiempo? Podría decirse que es más difícil que tomar una foto de la Luna. Face Unblur lo hace mucho más fácil. Y no es una función que habilite en la configuración o un modo que seleccione en la aplicación de la cámara. Está integrado y funciona en segundo plano.

Para ser claros, esto no es lo mismo que está haciendo Samsung con la Luna, está combinando datos de fotos que realmente tomaste, pero el razonamiento es el mismo: darte la foto que realmente querías tomar. Samsung simplemente va un paso más allá que Face Unblur o cualquier foto de una puesta de sol que hayas tomado con un teléfono inteligente.

Cada foto tomada con una cámara digital se basa en una pequeña computadora que hace algunas conjeturas

La cuestión es que cada foto tomada con una cámara digital se basa en una pequeña computadora que hace algunas conjeturas. Eso es cierto hasta los píxeles individuales del sensor. Cada uno tiene un filtro de color verde, rojo o azul. Un píxel con un filtro de color verde solo puede decir qué tan verde es algo, por lo que un algoritmo usa los datos de píxeles vecinos para hacer una buena estimación de qué tan rojo y azul es también. Una vez que haya resuelto todos los datos de color, hay muchos más juicios que hacer sobre cómo procesar la foto.

Año tras año, las cámaras de los teléfonos inteligentes van un paso más allá, tratando de hacer conjeturas más inteligentes sobre la escena que estás fotografiando y cómo quieres que se vea. Cualquier iPhone de la media década anterior identificará rostros en una foto y los iluminará para lograr un aspecto más favorecedor. Si Apple dejara de hacer esto de repente, la gente se amotinaría.

No es solo Apple, cualquier cámara de teléfono inteligente moderno hace esto. ¿Es esa una foto de tu mejor amigo? ¡Ilumina y suaviza esas sombras debajo de sus ojos! ¿Eso es un plato de comida? ¡Aumente esa saturación de color para que no parezca un plato de Fancy Feast! Todas estas cosas suceden en segundo plano y, en general, nos gustan.

¿Sería extraño si, en lugar de simplemente aumentar la saturación para que su cena se vea atractiva, Samsung agregara algunas ramitas de perejil a la imagen? Absolutamente. Pero no creo que sea una comparación justa con Moon-gate.

Samsung no está poniendo la Torre Eiffel o los hombrecitos verdes en la imagen

La Luna no es un género de la foto como es la “comida”. Es un tema específico, aislado contra un cielo oscuro, que todos los humanos en la Tierra miran. Samsung no está poniendo la Torre Eiffel o los hombrecitos verdes en la imagen, está haciendo una suposición informada sobre lo que debería estar allí para empezar. Las fotos de la luna con teléfonos inteligentes también se ven categóricamente basura, e incluso las versiones mejoradas de Samsung todavía se ven bastante terribles. No hay peligro de que alguien con un S23 Ultra gane el premio al Astrofotógrafo del Año.

Samsung está dando un paso más adelante con su procesamiento de fotos Moon, pero no creo que sea la gran desviación de la «verdad» básica de la fotografía moderna de teléfonos inteligentes que parece ser. Y no creo que signifique que nos dirigimos a un futuro donde nuestras cámaras están solo máquinas de aviso a mitad de camino. Es un paso más en el viaje que han emprendido las cámaras de los teléfonos inteligentes durante muchos años, y si vamos a llevar a la empresa a los tribunales por delitos de procesamiento de imágenes, entonces tengo algunas quejas más para el juez.





Source link-37