OpenAI, Google pondrá una marca de agua en el contenido generado por IA para obstaculizar las falsificaciones profundas y la información errónea


Siete empresas, incluidas OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, se han comprometido a desarrollar tecnología para marcar claramente el contenido generado por IA. Eso ayudará a que sea más seguro compartir texto, video, audio e imágenes generados por IA sin engañar a otros sobre la autenticidad de ese contenido, espera la administración de Biden.

Actualmente no está claro cómo funcionará la marca de agua, pero es probable que se incruste en el contenido para que los usuarios puedan rastrear sus orígenes hasta las herramientas de inteligencia artificial utilizadas para generarla.

Deepfakes se ha convertido en una preocupación emergente tanto para los usuarios de Internet como para los legisladores, ya que las empresas tecnológicas lidian con cómo lidiar con los usos controvertidos de las herramientas de IA.

A principios de este año, se utilizó el generador de imágenes Midjourney para crear imágenes falsas del arresto de Donald Trump, que posteriormente se volvieron virales. Si bien para muchos era obvio que las imágenes eran falsas, Midjourney decidió tomar medidas para prohibir al usuario que las hizo. Quizás si una marca de agua hubiera estado disponible en ese momento, ese usuario, el fundador de Bellingcat, Eliot Higgins, nunca se habría enfrentado a consecuencias tan graves por lo que dijo que no era un intento de ser inteligente o engañar a otros, sino simplemente divertirse con Midjourney.

Sin embargo, hay otros usos indebidos más graves de las herramientas de IA, en los que una marca de agua podría ayudar a salvar a algunos usuarios de Internet del dolor y la lucha. A principios de este año, se informó que el software de generación de voz de IA se usó para estafar a las personas por miles de dólares, y el mes pasado, el FBI advirtió sobre el uso creciente de falsificaciones profundas generadas por IA en esquemas de sextorsión.

La Casa Blanca dijo que la marca de agua permitirá que «florezca la creatividad con la IA, pero reducirá los peligros de fraude y engaño».

OpenAI dijo en un blog que acordó «desarrollar mecanismos robustos, incluidos sistemas de procedencia y/o marcas de agua para contenido de audio o visual», así como «herramientas o API para determinar si un contenido en particular se creó con su sistema». Esto se aplicará a la mayoría del contenido generado por IA, con raras excepciones, como no marcar con marca de agua las voces predeterminadas de los asistentes de IA.

«El contenido audiovisual que se distingue fácilmente de la realidad o que está diseñado para ser fácilmente reconocible como generado por el sistema de inteligencia artificial de una empresa, como las voces predeterminadas de los asistentes de inteligencia artificial, está fuera del alcance de este compromiso», dijo OpenAI.

Google dijo que además de la marca de agua, también «integrará metadatos» y «otras técnicas innovadoras» para «promover información confiable».

A medida que aumenta la preocupación por el uso indebido de la IA, el presidente Joe Biden se reunirá hoy con empresas tecnológicas. Eso debería ayudar a Biden y al Congreso a obtener información clave antes de desarrollar una orden ejecutiva y una legislación bipartidista en un esfuerzo por recuperar el control sobre las tecnologías de IA que avanzan rápidamente.

En un blog, Microsoft elogió a la administración de Biden por crear «una base para ayudar a garantizar que la promesa de la IA se mantenga por delante de sus riesgos» y «reunir a la industria tecnológica para elaborar pasos concretos que ayudarán a que la IA sea más segura y beneficiosa para el público».

“Ninguno de nosotros puede lograr la inteligencia artificial por sí solo”, dijo el blog de Google.

Más garantías de IA prometidas

Además de desarrollar marcas de agua para contenido generado por IA, las empresas de tecnología hicieron una serie de otros compromisos voluntarios anunciados por la Casa Blanca el viernes.

Entre ellos, las empresas de tecnología acordaron realizar pruebas internas y externas en los sistemas de IA antes de su lanzamiento. También dijeron que invertirían más en ciberseguridad y compartirían información en toda la industria para ayudar a reducir los riesgos de la IA. Esos riesgos incluyen todo, desde la IA que permite el sesgo o la discriminación hasta la reducción de las barreras para el desarrollo de armamento avanzado, dijo el blog de OpenAI. El blog de Microsoft destacó los compromisos adicionales que ha hecho con la Casa Blanca, incluido el apoyo al desarrollo de un registro nacional que documente los sistemas de IA de alto riesgo.

OpenAI dijo que las empresas de tecnología que hacen estos compromisos «es un paso importante para promover una gobernanza de IA significativa y efectiva, tanto en los EE. UU. como en todo el mundo». El fabricante de ChatGPT, GPT-4 y DALL-E 2 también prometió «invertir en investigación en áreas que puedan ayudar a informar la regulación, como técnicas para evaluar capacidades potencialmente peligrosas en modelos de IA».

El presidente de asuntos globales de Meta, Nick Clegg, se hizo eco de OpenAI y calificó los compromisos de las empresas de tecnología como un «primer paso importante para garantizar que se establezcan medidas de protección responsables para la IA».

Google describió los compromisos como «un hito en la unión de la industria para garantizar que la IA ayude a todos».

La Casa Blanca espera que elevar los estándares de la IA mejore la seguridad y la confianza en la IA, según un funcionario citado por el Financial Times. “Esta es una alta prioridad para el presidente y el equipo aquí”, dijo el funcionario.



Source link-49