{"id":1011112,"date":"2024-02-15T22:13:40","date_gmt":"2024-02-15T22:13:40","guid":{"rendered":"https:\/\/magazineoffice.com\/algunas-personas-realmente-aman-los-deepfakes\/"},"modified":"2024-02-15T22:13:42","modified_gmt":"2024-02-15T22:13:42","slug":"algunas-personas-realmente-aman-los-deepfakes","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/algunas-personas-realmente-aman-los-deepfakes\/","title":{"rendered":"Algunas personas realmente aman los deepfakes"},"content":{"rendered":"


\n<\/p>\n

\n

Hace un mes, la consultora Accenture present\u00f3 a un cliente potencial una propuesta inusual y llamativa para un nuevo proyecto. En lugar de las diapositivas habituales, el cliente vio deepfakes de varios empleados reales parados en un escenario virtual, ofreciendo descripciones perfectamente entregadas del proyecto en el que esperaban trabajar.<\/p>\n

\u00abQuer\u00eda que conocieran a nuestro equipo\u00bb, dice Renato Scaff, director general senior de Accenture a quien se le ocurri\u00f3 la idea. \u00abTambi\u00e9n es una forma de diferenciarnos de la competencia\u00bb.<\/p>\n

Los deepfakes fueron generados (con el consentimiento de los empleados) por Touchcast, una empresa en la que Accenture ha invertido y que ofrece una plataforma para presentaciones interactivas con avatares de personas reales o sint\u00e9ticas. Los avatares de Touchcast pueden responder a preguntas escritas o habladas utilizando modelos de inteligencia artificial que analizan informaci\u00f3n relevante y generan respuestas sobre la marcha.<\/p>\n

\u00abHay un elemento espeluznante\u00bb, dice Scaff sobre sus empleados deepfake. \u00abPero hay un elemento mayor de genialidad\u00bb.<\/p>\n

Los deepfakes son un arma potente y peligrosa de desinformaci\u00f3n y da\u00f1o a la reputaci\u00f3n. Pero esa misma tecnolog\u00eda est\u00e1 siendo adoptada por empresas que la ven como una nueva forma inteligente y atractiva de llegar a los clientes e interactuar con ellos.<\/p>\n

Esos experimentos no se limitan al sector empresarial. M\u00f3nica Ar\u00e9s, directora ejecutiva del Laboratorio de Innovaci\u00f3n, Educaci\u00f3n Digital y An\u00e1lisis de la Escuela de Negocios del Imperial College de Londres, ha creado deepfakes de profesores reales que espera que puedan ser una forma m\u00e1s atractiva y efectiva de responder las preguntas y consultas de los estudiantes fuera del mundo. aula. Ar\u00e9s dice que la tecnolog\u00eda tiene el potencial de aumentar la personalizaci\u00f3n, proporcionar nuevas formas de gestionar y evaluar a los estudiantes e impulsar la participaci\u00f3n de los estudiantes. \u00abA\u00fan tienes la apariencia de un ser humano habl\u00e1ndote, por lo que se siente muy natural\u00bb, dice.<\/p>\n

Como suele ser el caso en estos d\u00edas, debemos agradecer a la IA por este desmoronamiento de la realidad. Durante mucho tiempo, los estudios de Hollywood han podido copiar las voces, los rostros y los gestos de los actores con software, pero en los \u00faltimos a\u00f1os la IA ha hecho que una tecnolog\u00eda similar sea ampliamente accesible y pr\u00e1cticamente gratuita. Adem\u00e1s de Touchcast, empresas como Synthesia y HeyGen ofrecen a las empresas una forma de generar avatares de personas reales o falsas para presentaciones, marketing y servicio al cliente.<\/p>\n

Edo Segal, fundador y director ejecutivo de Touchcast, cree que los avatares digitales podr\u00edan ser una nueva forma de presentar e interactuar con el contenido. Su empresa ha desarrollado una plataforma de software llamada Genything que permitir\u00e1 a cualquiera crear su propio gemelo digital.<\/p>\n

Al mismo tiempo, los deepfakes se est\u00e1n convirtiendo en una gran preocupaci\u00f3n a medida que se acercan las elecciones en muchos pa\u00edses, incluido Estados Unidos. El mes pasado, se utilizaron llamadas autom\u00e1ticas generadas por inteligencia artificial con un Joe Biden falso para difundir desinformaci\u00f3n electoral. Taylor Swift tambi\u00e9n se convirti\u00f3 recientemente en un objetivo de pornograf\u00eda deepfake generada utilizando herramientas de im\u00e1genes de IA ampliamente disponibles.<\/p>\n

\u201cLas im\u00e1genes deepfake son ciertamente algo que nos preocupa y alarmante\u201d, dijo a WIRED Ben Buchanan, asesor especial de la Casa Blanca para IA, en una entrevista reciente. El deepfake de Swift \u201ces un dato clave en una tendencia m\u00e1s amplia que afecta desproporcionadamente a mujeres y ni\u00f1as, que son abrumadoramente blanco de acoso y abuso en l\u00ednea\u201d, dijo.<\/p>\n

Un nuevo Instituto de Seguridad de IA de EE. UU., creado en virtud de una orden ejecutiva de la Casa Blanca emitida en octubre pasado, est\u00e1 desarrollando est\u00e1ndares para poner marcas de agua en los medios generados por IA. Meta, Google, Microsoft y otras empresas tecnol\u00f3gicas tambi\u00e9n est\u00e1n desarrollando tecnolog\u00eda dise\u00f1ada para detectar falsificaciones de IA en lo que se est\u00e1 convirtiendo en una carrera armamentista de IA de alto riesgo.<\/p>\n

Sin embargo, algunos usos pol\u00edticos del deepfakering resaltan el doble potencial de la tecnolog\u00eda.<\/p>\n

Imran Khan, ex primer ministro de Pakist\u00e1n, pronunci\u00f3 un discurso de movilizaci\u00f3n ante los seguidores de su partido el s\u00e1bado pasado a pesar de estar atrapado tras las rejas. La ex estrella del cricket, encarcelada en lo que su partido ha caracterizado como un golpe militar, pronunci\u00f3 su discurso utilizando un software deepfake que evocaba una copia convincente de \u00e9l sentado detr\u00e1s de un escritorio y pronunciando palabras que en realidad nunca pronunci\u00f3.<\/p>\n

A medida que la manipulaci\u00f3n de videos impulsada por IA mejora y se vuelve m\u00e1s f\u00e1cil de usar, es probable que crezca el inter\u00e9s de las empresas y los consumidores en los usos leg\u00edtimos de la tecnolog\u00eda. El gigante tecnol\u00f3gico chino Baidu recientemente desarrollado una manera<\/a> para que los usuarios de su aplicaci\u00f3n de chatbot creen deepfakes para enviar saludos del A\u00f1o Nuevo Lunar.<\/p>\n

Incluso para los primeros usuarios, la posibilidad de uso indebido no est\u00e1 completamente descartada. \u00abNo hay duda de que la seguridad debe ser primordial\u00bb, afirma Scaff de Accenture. \u00abUna vez que tienes un gemelo sint\u00e9tico, puedes obligarlo a hacer y decir cualquier cosa\u00bb.<\/p>\n<\/div>\n