Algunas personas realmente aman los deepfakes


Hace un mes, la consultora Accenture presentó a un cliente potencial una propuesta inusual y llamativa para un nuevo proyecto. En lugar de las diapositivas habituales, el cliente vio deepfakes de varios empleados reales parados en un escenario virtual, ofreciendo descripciones perfectamente entregadas del proyecto en el que esperaban trabajar.

«Quería que conocieran a nuestro equipo», dice Renato Scaff, director general senior de Accenture a quien se le ocurrió la idea. «También es una forma de diferenciarnos de la competencia».

Los deepfakes fueron generados (con el consentimiento de los empleados) por Touchcast, una empresa en la que Accenture ha invertido y que ofrece una plataforma para presentaciones interactivas con avatares de personas reales o sintéticas. Los avatares de Touchcast pueden responder a preguntas escritas o habladas utilizando modelos de inteligencia artificial que analizan información relevante y generan respuestas sobre la marcha.

«Hay un elemento espeluznante», dice Scaff sobre sus empleados deepfake. «Pero hay un elemento mayor de genialidad».

Los deepfakes son un arma potente y peligrosa de desinformación y daño a la reputación. Pero esa misma tecnología está siendo adoptada por empresas que la ven como una nueva forma inteligente y atractiva de llegar a los clientes e interactuar con ellos.

Esos experimentos no se limitan al sector empresarial. Mónica Arés, directora ejecutiva del Laboratorio de Innovación, Educación Digital y Análisis de la Escuela de Negocios del Imperial College de Londres, ha creado deepfakes de profesores reales que espera que puedan ser una forma más atractiva y efectiva de responder las preguntas y consultas de los estudiantes fuera del mundo. aula. Arés dice que la tecnología tiene el potencial de aumentar la personalización, proporcionar nuevas formas de gestionar y evaluar a los estudiantes e impulsar la participación de los estudiantes. «Aún tienes la apariencia de un ser humano hablándote, por lo que se siente muy natural», dice.

Como suele ser el caso en estos días, debemos agradecer a la IA por este desmoronamiento de la realidad. Durante mucho tiempo, los estudios de Hollywood han podido copiar las voces, los rostros y los gestos de los actores con software, pero en los últimos años la IA ha hecho que una tecnología similar sea ampliamente accesible y prácticamente gratuita. Además de Touchcast, empresas como Synthesia y HeyGen ofrecen a las empresas una forma de generar avatares de personas reales o falsas para presentaciones, marketing y servicio al cliente.

Edo Segal, fundador y director ejecutivo de Touchcast, cree que los avatares digitales podrían ser una nueva forma de presentar e interactuar con el contenido. Su empresa ha desarrollado una plataforma de software llamada Genything que permitirá a cualquiera crear su propio gemelo digital.

Al mismo tiempo, los deepfakes se están convirtiendo en una gran preocupación a medida que se acercan las elecciones en muchos países, incluido Estados Unidos. El mes pasado, se utilizaron llamadas automáticas generadas por inteligencia artificial con un Joe Biden falso para difundir desinformación electoral. Taylor Swift también se convirtió recientemente en un objetivo de pornografía deepfake generada utilizando herramientas de imágenes de IA ampliamente disponibles.

“Las imágenes deepfake son ciertamente algo que nos preocupa y alarmante”, dijo a WIRED Ben Buchanan, asesor especial de la Casa Blanca para IA, en una entrevista reciente. El deepfake de Swift “es un dato clave en una tendencia más amplia que afecta desproporcionadamente a mujeres y niñas, que son abrumadoramente blanco de acoso y abuso en línea”, dijo.

Un nuevo Instituto de Seguridad de IA de EE. UU., creado en virtud de una orden ejecutiva de la Casa Blanca emitida en octubre pasado, está desarrollando estándares para poner marcas de agua en los medios generados por IA. Meta, Google, Microsoft y otras empresas tecnológicas también están desarrollando tecnología diseñada para detectar falsificaciones de IA en lo que se está convirtiendo en una carrera armamentista de IA de alto riesgo.

Sin embargo, algunos usos políticos del deepfakering resaltan el doble potencial de la tecnología.

Imran Khan, ex primer ministro de Pakistán, pronunció un discurso de movilización ante los seguidores de su partido el sábado pasado a pesar de estar atrapado tras las rejas. La ex estrella del cricket, encarcelada en lo que su partido ha caracterizado como un golpe militar, pronunció su discurso utilizando un software deepfake que evocaba una copia convincente de él sentado detrás de un escritorio y pronunciando palabras que en realidad nunca pronunció.

A medida que la manipulación de videos impulsada por IA mejora y se vuelve más fácil de usar, es probable que crezca el interés de las empresas y los consumidores en los usos legítimos de la tecnología. El gigante tecnológico chino Baidu recientemente desarrollado una manera para que los usuarios de su aplicación de chatbot creen deepfakes para enviar saludos del Año Nuevo Lunar.

Incluso para los primeros usuarios, la posibilidad de uso indebido no está completamente descartada. «No hay duda de que la seguridad debe ser primordial», afirma Scaff de Accenture. «Una vez que tienes un gemelo sintético, puedes obligarlo a hacer y decir cualquier cosa».





Source link-46