OpenAI dice que puede detectar imágenes creadas por su propio software… principalmente


Todos pensamos que somos bastante buenos identificando imágenes creadas por IA. Es el extraño texto alienígena de fondo. Son las extrañas imprecisiones las que parecen violar las leyes de la física. Sobre todo, son esas horribles manos y dedos. Sin embargo, la tecnología evoluciona constantemente y no pasará mucho tiempo hasta que no podamos saber qué es real o no. El líder de la industria OpenAI está tratando de adelantarse al problema creado por su propio generador DALL-E 3. Los resultados son heterogéneos.

La herramienta en acción.

AbiertoAI

La compañía dice que puede detectar con precisión imágenes generadas por DALL-3 el 98 por ciento de las veces, lo cual es fantástico. Sin embargo, existen algunas advertencias bastante importantes. En primer lugar, la imagen debe ser creada por DALL-E y, bueno, no es el único generador de imágenes del bloque. Internet está repleto de ellos. Según , el sistema sólo logró clasificar con éxito entre cinco y diez por ciento de las imágenes realizadas por otros modelos de IA.

Además, tiene problemas si la imagen se ha modificado de alguna manera. Esto no parecía ser gran cosa en el caso de modificaciones menores, como recorte, compresión y cambios de saturación. En estos casos, la tasa de éxito fue menor pero aún dentro del rango aceptable de alrededor del 95 al 97 por ciento. Sin embargo, ajustar el tono redujo la tasa de éxito al 82 por ciento.

Resultados de la prueba.Resultados de la prueba.

AbiertoAI

Aquí es donde las cosas se ponen realmente complicadas. El conjunto de herramientas tuvo problemas cuando se utilizó para clasificar imágenes que sufrieron cambios más extensos. OpenAI ni siquiera publicó la tasa de éxito en estos casos, afirmando simplemente que «otras modificaciones, sin embargo, pueden reducir el rendimiento».

Esto es una lástima porque, bueno, es un año electoral y la gran mayoría de las imágenes generadas por IA se modificarán después para enfurecer más a la gente. En otras palabras, la herramienta probablemente reconocerá una imagen de Joe Biden dormido en la Oficina Oval rodeado de bolsas de polvo blanco, pero no después de que el creador aplique un montón de texto enojado y Photoshop en un águila calva llorando o lo que sea.

Al menos OpenAI está siendo transparente con respecto a las limitaciones de su tecnología de detección. También brinda a los evaluadores externos acceso a las herramientas antes mencionadas para ayudar a solucionar estos problemas. . La compañía, junto con su mejor amigo Microsoft, ha invertido 2 millones de dólares en algo llamado , que espera expandir la educación y la alfabetización en IA.

Desafortunadamente, la idea de que la IA arruine una elección no es un concepto lejano. Está sucediendo ahora mismo. Ya ha existido y se ha utilizado este ciclo, y es probable que exista a medida que avanzamos lenta, lentamente, lentamente (lentamente) hacia noviembre.

Este artículo contiene enlaces de afiliados; Si hace clic en dicho enlace y realiza una compra, podemos ganar una comisión.



Source link-47