Un nuevo reto: hacer detectables los contenidos generados por inteligencia artificial


¿Deberíamos conformarnos con un mundo en el que sea imposible distinguir el contenido generado por inteligencia artificial (IA) del producido por humanos? La pregunta es cada día más candente: los textos fanfarrones han proliferado desde el lanzamiento, en noviembre de 2022, del chatbot ChatGPT, y las fotos engañosas como la del Papa con una chaqueta blanca se multiplicarán con el auge de software como Midjourney.

En respuesta, algunos están buscando formas de hacer que este contenido sintético sea detectable. El desafío es complejo, pero de actualidad: el martes 23 de mayo, el gigante del software Microsoft anunció soluciones en este sentido y el ministro de Economía francés, Bruno Le Maire, planteó el tema en París con Sam Altman, director ejecutivo de OpenAI, el creador de ChatGPT.

» [Rendre détectables les contenus créés avec l’IA] ayudaría a combatir las trampas en la universidad, o la generación masiva de propaganda y desinformación con el objetivo de, por ejemplo, inundar los blogs con comentarios a favor de la invasión de Ucrania”, argumentó, en una conferencia, en noviembre de 2022, Scott Aaronson, el investigador responsable de trabajar esta cuestión en OpenAI.

Lea también: Artículo reservado para nuestros suscriptores El «padre» de ChatGPT, Sam Altman, de gira diplomática por París y Europa

“Mantener las distinciones es un imperativo ético por razones relacionadas con los usos de la IA, en la educación, la salud o el derecho, pero también, a nivel filosófico, para delimitar qué es la responsabilidad humana y qué la hacen las máquinas, agrega Alexei Grinbaum, miembro del Comité Piloto Nacional de Ética Digital y autor de palabra de maquinas (Humenciencias, 192 páginas, 17,90 euros).

Herramientas integradas o externas

Con esto en mente, Microsoft ha anunciado la integración de un “marca de agua criptográfica invisible” (O marca de agua) en las imágenes creadas por su software Designer y Bing Image Creator: consultando los metadatos de una foto o vídeo –es decir, la información adjunta a este archivo–, «el usuario podrá ver que fue creado con una IA», explica el grupo.

Disponible » en los próximos meses «, esta indicación de la » origen » de contenido se basa en un estándar llamado C2PA. Este también ha sido integrado por Adobe en la herramienta de edición de imágenes gracias a la IA disponible en su famoso software Photoshop. OpenAI también está estudiando técnicas de marca de agua para Dall E 2, su software para generar imágenes a partir de una descripción de texto. Y su competidor Midjourney ha adoptado un sistema de metadatos creado por IPTC, un organismo de estándares de la industria de los medios.

Te queda el 61,93% de este artículo por leer. Lo siguiente es solo para suscriptores.



Source link-5