Deepfakes – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Tue, 21 May 2024 09:16:09 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Scarlett Johansson tuvo que amenazar a OpenAI con acciones legales para eliminar voces similares y quiere una “legislación apropiada” para detener tales deepfakes – Actualización https://magazineoffice.com/scarlett-johansson-tuvo-que-amenazar-a-openai-con-acciones-legales-para-eliminar-voces-similares-y-quiere-una-legislacion-apropiada-para-detener-tales-deepfakes-actualizaci/ https://magazineoffice.com/scarlett-johansson-tuvo-que-amenazar-a-openai-con-acciones-legales-para-eliminar-voces-similares-y-quiere-una-legislacion-apropiada-para-detener-tales-deepfakes-actualizaci/#respond Tue, 21 May 2024 09:16:05 +0000 https://magazineoffice.com/scarlett-johansson-tuvo-que-amenazar-a-openai-con-acciones-legales-para-eliminar-voces-similares-y-quiere-una-legislacion-apropiada-para-detener-tales-deepfakes-actualizaci/

ACTUALIZADO, 4:15 p.m.: Algo llamado “Sky” que se parece mucho a la voz de Scarlett Johansson ya no está en OpenAI, pero el Su La estrella dice que hay mucho más detrás de la historia.

Por un lado, sostiene que el fundador de OpenAI, Sam Altman, fue informado de las objeciones del actor a la función de voz, pero aun así siguió adelante con la actualización.

Horas después de que OpenAI lanzara la voz interactiva «Sky», una de las cinco en su actualización ChatGPT, Johansson emitió una declaración con su propia voz, literal y figurativamente. Detalla su relato de los acontecimientos, en los que Altman pidió permiso para usar su tono, fue rechazado, pero siguió adelante de todos modos, al menos hasta que llamaron a los abogados.

Aquí está la declaración completa de Johansson:

En septiembre pasado, recibí una oferta de Sam Altman, que quería contratarme para expresar el sistema ChatGPT 4.0 actual. Me dijo que sentía que al expresar el sistema, podría cerrar la brecha entre las empresas de tecnología y los creativos y ayudar a los consumidores a sentirse cómodos con el cambio sísmico que afecta a los humanos y la IA. Dijo que sentía que mi voz consolaría a la gente.

Después de mucha consideración y por motivos personales, rechacé la oferta. Nueve meses después, mis amigos, mi familia y el público en general notaron cuánto se parecía a mí el sistema más nuevo llamado “Sky”..

Cuando escuché la demostración publicada, quedé sorprendido, enojado e incrédulo de que el Sr. Altman usara una voz que sonaba tan inquietantemente similar a la mía que mis amigos más cercanos y los medios de comunicación no podían notar la diferencia. Altman incluso insinuó que la similitud era intencional y tuiteó una sola palabra «ella», una referencia a la película en la que le di voz a un sistema de chat, Samantha, que forma una relación íntima con un humano.

Dos días antes del lanzamiento de la demostración de ChatGPT 4.0, el Sr. Altman se comunicó con mi agente y me pidió que lo reconsiderara. Antes de que pudiéramos conectarnos, el sistema ya estaba disponible.

Como resultado de sus acciones, me vi obligado a contratar un asesor legal, quien escribió dos cartas al Sr. Altman y a OpenAI, exponiendo lo que habían hecho y pidiéndoles que detallaran el proceso exacto mediante el cual crearon la voz «Sky». En consecuencia, OpenAI aceptó a regañadientes eliminar la voz de “Sky”.
En una época en la que todos lidiamos con los deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo, nuestras propias identidades, creo que estas son preguntas que merecen una claridad absoluta. Espero con interés una resolución en forma de transparencia y la aprobación de legislación adecuada para ayudar a garantizar que se protejan los derechos individuales.

Fuentes con conocimiento de la situación confirmaron por separado a Deadline que Viuda negra relato de los hechos por parte del actor.

ANTERIORMENTE, A LAS 7:57 A. M. PT: OpenAI está sacando una voz de inteligencia artificial que los usuarios compararon con la de Scarlett Johansson, pero la compañía insiste en que «no es una imitación» y que «apoya a la comunidad creativa».

La compañía detalló su razonamiento en una publicación de blog el lunes por la mañana, diciendo que la voz de “Sky”, una de las cinco voces interactivas introducidas el otoño pasado, “muestreó” la de un actor de doblaje real. La compañía no ha revelado las identidades de los actores cuyas voces sirvieron de base para las funciones de ChatGPT, citando consideraciones de privacidad.

«Apoyamos a la comunidad creativa y trabajamos estrechamente con la industria de la actuación de voz para asegurarnos de que tomamos las medidas correctas para emitir las voces de ChatGPT», escribió la compañía. «Cada actor recibe una compensación superior a las tarifas más altas del mercado, y esto continuará mientras sus voces se utilicen en nuestros productos».

Las voces de IA, afirmó OpenAI, «no deben imitar deliberadamente la voz distintiva de una celebridad; la voz de Sky no es una imitación de Scarlett Johansson, sino que pertenece a una actriz profesional diferente que usa su propia voz natural».

Sábado noche en directo trabajó en un riff sobre la controversia durante “Weekend Update”, con el esposo de Johansson, Colin Jost, bromeando sobre las comparaciones entre el ChatGPT activado por voz y la película. Su. En la película de 2013, Johansson expresó el personaje central, aunque técnicamente inanimado, de un asistente virtual del que el personaje de Joaquin Phoenix se enamora.

“Nunca me he molestado en mirar porque sin ese cuerpo, ¿qué sentido tiene escuchar?” Jos se quebró.

Por supuesto, la solapa no es motivo de risa para los sindicatos de Hollywood. La WGA y SAG-AFTRA hicieron de la IA elementos clave de sus huelgas históricas de 2023 y los gremios continúan monitoreando de cerca y opinando sobre los desarrollos en la frontera tecnológica.

Fundada en 2015 como una organización sin fines de lucro, OpenAI ha creado subsidiarias con fines de lucro diseñadas como vehículos para la inversión de Microsoft en la empresa. Según se informa, Microsoft ha comprometido un total de 13 mil millones de dólares para OpenAI, incluidos 10 mil millones de dólares en financiación el año pasado.



Source link-18

]]>
https://magazineoffice.com/scarlett-johansson-tuvo-que-amenazar-a-openai-con-acciones-legales-para-eliminar-voces-similares-y-quiere-una-legislacion-apropiada-para-detener-tales-deepfakes-actualizaci/feed/ 0
Los votantes indios están siendo bombardeados con millones de deepfakes. Los candidatos políticos lo aprueban https://magazineoffice.com/los-votantes-indios-estan-siendo-bombardeados-con-millones-de-deepfakes-los-candidatos-politicos-lo-aprueban/ https://magazineoffice.com/los-votantes-indios-estan-siendo-bombardeados-con-millones-de-deepfakes-los-candidatos-politicos-lo-aprueban/#respond Mon, 20 May 2024 10:56:10 +0000 https://magazineoffice.com/los-votantes-indios-estan-siendo-bombardeados-con-millones-de-deepfakes-los-candidatos-politicos-lo-aprueban/

en un sofocante Una tarde de abril en Ajmer, en el estado indio de Rajasthan, la política local Shakti Singh Rathore se sentó frente a una pantalla verde para grabar un breve vídeo. Parecía nervioso. Era la primera vez que lo clonaban.

Con una impecable camisa blanca y un pañuelo ceremonial de color azafrán con una flor de loto (el logotipo del BJP, el partido gobernante del país), Rathore juntó las palmas de las manos y saludó a su audiencia en hindi. “Namashkar”, comenzó. “A todos mis hermanos…”

Antes de que pudiera continuar, el director del rodaje entró en escena. Divyendra Singh Jadoun, un hombre de 31 años calvo y con una espesa barba negra, le dijo a Rathore que se movía demasiado ante la cámara. Jadoun estaba tratando de capturar suficientes datos de audio y video para construir una falsificación de Rathore con IA que convencería a 300.000 votantes potenciales alrededor de Ajmer de que habían tenido una conversación personalizada con él, pero el exceso de movimiento rompería el algoritmo. Jadoun le dijo al sujeto que mirara directamente a la cámara y moviera solo los labios. “Empezar de nuevo”, dijo.

En Polymath Synthetic Media Solutions, el deepfaker autodidacta Divyendra Singh Jadoun recopila datos de video y audio de políticos locales para traducir sus discursos a diferentes idiomas para llegar a los votantes. Aquí, el discurso de Shakti Singh Rathore se genera en hindi, tamil, sánscrito y marathi. Vídeo: Nilesh Christopher/Divyendra Singh Jadoun/CON CABLE

Ahora mismo, la democracia más grande del mundo va a las urnas. Cerca de mil millones de indios tienen derecho a votar como parte de las elecciones generales del país, y los deepfakes podrían desempeñar un papel decisivo y potencialmente divisivo. Los partidos políticos de la India han explotado la IA para deformar la realidad mediante falsificaciones de audio baratas, imágenes propagandísticas y parodias de IA. Pero si bien el discurso global sobre los deepfakes a menudo se centra en la desinformación y otros daños sociales, muchos políticos indios están utilizando la tecnología para un propósito diferente: llegar a los votantes.

En todo el espectro ideológico, confían en la IA para ayudarlos a navegar por los 22 idiomas oficiales del país y miles de dialectos regionales, y para entregar mensajes personalizados en comunidades más remotas. Si bien recientemente Estados Unidos prohibió el uso de voces generadas por IA para llamadas no solicitadas, en India los deepfakes autorizados se han convertido en una oportunidad de negocio de 60 millones de dólares. En los dos meses previos al inicio de las elecciones en abril se realizaron más de 50 millones de llamadas clonadas de voz generadas por IA, y se realizarán millones más durante la votación, dijo a WIRED uno de los operadores de mensajería empresarial más grandes del país.

Jadoun es el modelo de esta floreciente industria. Su empresa, Polymath Synthetic Media Solutions, es uno de los muchos proveedores de servicios deepfake de toda la India que han surgido para atender a la clase política. Esta temporada electoral, Jadoun ha realizado hasta el momento cinco campañas de IA, por las que su empresa ha recibido un total de 55.000 dólares. (Cobra significativamente menos que los grandes consultores políticos: 125.000 rupias [$1,500] para hacer un avatar digital y 60.000 rupias [$720] para un clon de audio.) Ha hecho deepfakes para Prem Singh Tamang, el ministro principal del estado de Sikkim en el Himalaya, y resucitó a YS Rajasekhara Reddy, un político icónico que murió en un accidente de helicóptero en 2009, para respaldar a su hijo YS Jagan Mohan Reddy. , actual ministro principal del estado de Andhra Pradesh. Jadoun también ha creado canciones de propaganda generadas por IA para varios políticos, incluido Tamang, candidato local al parlamento y ministro principal del estado occidental de Maharashtra. “Él es nuestro orgullo”, decía una canción en hindi sobre un político local en Ajmer, con voces masculinas y femeninas con una melodía alegre. «Siempre ha sido imparcial».

Jadoun también crea canciones de campaña generadas por IA, incluida ésta para el político local Ram Chandra Choudhary en Ajmer. Traducido al inglés, la letra dice: “Para Ajmer, trajo un nuevo regalo / Su nombre es Ram Chandra / Él ayuda a todos / Fue el presidente de Ajmer Dairy / Siempre ha sido imparcial / Tiene a Ram en su nombre / Él es nuestro orgullo / Es un soldado del Congreso / Comparte la angustia pública / Hijo de Ajmer / Un guardián del desarrollo / Hijo de Ajmer / Verdadera forma de desarrollo / Lucha por los derechos de todos / Ram Chandra tocaba el clarinete”. Audio: Divyendra Singh Jadoun

Si bien Rathore no se presentará a elecciones este año, es uno de los más de 18 millones de voluntarios del BJP encargados de garantizar que el gobierno del primer ministro Narendra Modi mantenga su poder. En el pasado, eso habría significado pasar meses recorriendo Rajasthan, un estado desértico aproximadamente del tamaño de Italia, para hablar con los votantes individualmente, recordándoles cómo se han beneficiado de varios programas sociales del BJP: pensiones, tanques gratuitos para gas para cocinar, dinero en efectivo. Pagos para mujeres embarazadas. Pero con la ayuda de los deepfakes de Jadoun, el trabajo de Rathore se ha vuelto mucho más fácil.

Pasará 15 minutos aquí hablando ante la cámara sobre algunos de los temas electorales clave, mientras Jadoun le hace preguntas. Pero realmente no importa lo que diga. Todo lo que Jadoun necesita es la voz de Rathore. Una vez hecho esto, Jadoun utilizará los datos para generar videos y llamadas que irán directamente a los teléfonos de los votantes. En lugar de llamar a su puerta o un rápido apretón de manos en un mitin, verán o escucharán a Rathore dirigirse a ellos por su nombre y hablar con inquietante especificidad sobre los temas que más les importan y pedirles que voten por el BJP. Si hacen preguntas, la IA debería responder, con una voz clara y tranquila que es casi mejor que el rápido acento del verdadero Rathore. Es posible que los votantes menos conocedores de la tecnología ni siquiera se den cuenta de que han estado hablando con una máquina. Incluso Rathore admite que no sabe mucho sobre IA. Pero él entiende de psicología. «Esos llamados pueden ayudar a los votantes indecisos».

Rozándose los hombros con los políticos no es algo nuevo para Jadoun. Solía ​​ser uno. En 2015, se presentó a las elecciones en Ajmer como presidente de distrito del Sindicato Nacional de Estudiantes de la India (NSUI), el ala juvenil del Congreso Nacional Indio, el otrora formidable partido nacional que ahora es la principal oposición al BJP de Modi.





Source link-46

]]>
https://magazineoffice.com/los-votantes-indios-estan-siendo-bombardeados-con-millones-de-deepfakes-los-candidatos-politicos-lo-aprueban/feed/ 0
OpenAI dice que «habilitar deepfakes está fuera de discusión», pero crear contenido pornográfico y NSFW es una posibilidad https://magazineoffice.com/openai-dice-que-habilitar-deepfakes-esta-fuera-de-discusion-pero-crear-contenido-pornografico-y-nsfw-es-una-posibilidad/ https://magazineoffice.com/openai-dice-que-habilitar-deepfakes-esta-fuera-de-discusion-pero-crear-contenido-pornografico-y-nsfw-es-una-posibilidad/#respond Fri, 10 May 2024 12:26:13 +0000 https://magazineoffice.com/openai-dice-que-habilitar-deepfakes-esta-fuera-de-discusion-pero-crear-contenido-pornografico-y-nsfw-es-una-posibilidad/

Lo que necesitas saber

  • OpenAI puede abrir sus herramientas para crear contenido considerado «no seguro para el trabajo», que podría incluir pornografía.
  • La compañía compartió una especificación de modelo detallada que describe cómo ChatGPT y otras herramientas de inteligencia artificial deben responder a indicaciones y preguntas.
  • Si bien la especificación actualmente establece que ChatGPT no debe usarse para contenido «no seguro para el trabajo», también señala que OpenAI está «explorando si podemos brindar de manera responsable la capacidad de generar contenido NSFW en contextos apropiados para la edad».

OpenAI quiere abrir una conversación sobre cómo utilizar la IA de forma responsable. La compañía publicó una especificación de modelo detallada que describe cómo la organización quiere que ChatGPT y otras herramientas de inteligencia artificial respondan a las indicaciones. La especificación, que fue detectada por primera vez por CABLEADOtambién sirve como una oportunidad para recibir comentarios e impulsar un diálogo sobre cómo se puede utilizar la IA.

La IA ha resultado controvertida cuando se utiliza para generar deepfakes. A principios de este año, Imágenes falsas de Taylor Swift generadas por IA presentó a la estrella de manera sexual. Existe un debate sobre la ética de generar deepfakes, aunque OpenAI y varias empresas que impulsan la IA están firmemente en contra de ello. Parece que se puede mantener una discusión más amplia sobre el contenido NSFW de otras variedades.





Source link-40

]]>
https://magazineoffice.com/openai-dice-que-habilitar-deepfakes-esta-fuera-de-discusion-pero-crear-contenido-pornografico-y-nsfw-es-una-posibilidad/feed/ 0
El plan defectuoso de OpenAI para detectar deepfakes antes de las elecciones de 2024 https://magazineoffice.com/el-plan-defectuoso-de-openai-para-detectar-deepfakes-antes-de-las-elecciones-de-2024/ https://magazineoffice.com/el-plan-defectuoso-de-openai-para-detectar-deepfakes-antes-de-las-elecciones-de-2024/#respond Thu, 09 May 2024 03:47:33 +0000 https://magazineoffice.com/el-plan-defectuoso-de-openai-para-detectar-deepfakes-antes-de-las-elecciones-de-2024/

A medida que Estados Unidos avanza hacia la criminalización de los deepfakes (audio, imágenes y videos engañosos generados por IA que son cada vez más difíciles de distinguir del contenido auténtico en línea), las empresas de tecnología se han apresurado a implementar herramientas para ayudar a todos a detectar mejor el contenido de IA.

Pero los esfuerzos hasta ahora han sido imperfectos, y los expertos temen que las plataformas de redes sociales no estén preparadas para manejar el consiguiente caos de la IA durante las principales elecciones mundiales de 2024, a pesar de que los gigantes tecnológicos se comprometieron a crear herramientas específicas para combatir la desinformación electoral alimentada por la IA. La mejor detección de IA sigue siendo la de los humanos observadores, quienes, al prestar mucha atención a los deepfakes, pueden detectar fallas como personas generadas por IA con dedos adicionales o voces de IA que hablan sin detenerse a respirar.

Entre las herramientas más llamativas anunciadas esta semana, OpenAI compartió hoy detalles sobre un nuevo clasificador de detección de imágenes de IA que, según afirma, puede detectar alrededor del 98 por ciento de las salidas de IA de su propio sofisticado generador de imágenes, DALL-E 3. También «actualmente marca aproximadamente de 5 a 10 por ciento de las imágenes generadas por otros modelos de IA», dice el blog de OpenAI.

Según OpenAI, el clasificador proporciona una respuesta binaria «verdadero/falso» «que indica la probabilidad de que la imagen sea generada por IA por DALL·E 3». Una captura de pantalla de la herramienta muestra cómo también se puede utilizar para mostrar un resumen de contenido sencillo que confirme que «este contenido se generó con una herramienta de IA» e incluye campos que idealmente marcan la «aplicación o dispositivo» y la herramienta de IA utilizada.

Para desarrollar la herramienta, OpenAI pasó meses agregando metadatos a prueba de manipulaciones a «todas las imágenes creadas y editadas por DALL·E 3» que «pueden usarse para demostrar que el contenido proviene» de «una fuente particular». El detector lee estos metadatos para marcar con precisión las imágenes de DALL-E 3 como falsas.

Esos metadatos siguen «un estándar ampliamente utilizado para la certificación de contenido digital» establecido por la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), a menudo comparado con una etiqueta nutricional. Y reforzar ese estándar se ha convertido en «un aspecto importante» del enfoque de OpenAI para la detección de IA más allá de DALL-E 3, dijo OpenAI. Cuando OpenAI lance ampliamente su generador de video, Sora, los metadatos C2PA también se integrarán en esa herramienta, dijo OpenAI.

Por supuesto, esta solución no es integral porque los metadatos siempre se pueden eliminar, y «las personas aún pueden crear contenido engañoso sin esta información (o pueden eliminarla)», dijo OpenAI, «pero no pueden falsificar ni alterar fácilmente esta información, lo que hace que Es un recurso importante para generar confianza».

Debido a que OpenAI apuesta por C2PA, el líder de IA anunció hoy que se uniría al comité directivo de C2PA para ayudar a impulsar una adopción más amplia del estándar. OpenAI también lanzará un fondo de 2 millones de dólares con Microsoft para apoyar una «educación y comprensión de la IA» más amplia, aparentemente en parte con la esperanza de que cuanta más gente comprenda la importancia de la detección de la IA, menos probabilidades habrá de que eliminen estos metadatos.

«A medida que aumenta la adopción del estándar, esta información puede acompañar al contenido a lo largo de su ciclo de vida de intercambio, modificación y reutilización», dijo OpenAI. «Con el tiempo, creemos que este tipo de metadatos será algo que la gente esperará, llenando un vacío crucial en las prácticas de autenticidad del contenido digital».

La incorporación de OpenAI al comité «marca un hito importante para el C2PA y ayudará a avanzar en la misión de la coalición de aumentar la transparencia en torno a los medios digitales a medida que el contenido generado por IA se vuelve más frecuente», dijo C2PA en un blog.



Source link-49

]]>
https://magazineoffice.com/el-plan-defectuoso-de-openai-para-detectar-deepfakes-antes-de-las-elecciones-de-2024/feed/ 0
El tema de la Met Gala de este año son los deepfakes de IA https://magazineoffice.com/el-tema-de-la-met-gala-de-este-ano-son-los-deepfakes-de-ia/ https://magazineoffice.com/el-tema-de-la-met-gala-de-este-ano-son-los-deepfakes-de-ia/#respond Tue, 07 May 2024 10:42:01 +0000 https://magazineoffice.com/el-tema-de-la-met-gala-de-este-ano-son-los-deepfakes-de-ia/

Ya sea que ames u odies la cultura de las celebridades, la Met Gala es un evento. Aquellos menos cansados ​​entre nosotros pueden ver a las estrellas más importantes tomar los riesgos de moda más audaces del año; A diferencia de una entrega de premios, es un evento que fomenta la extravagancia de vanguardia. Y si todo esto te parece insulso, entonces puedes reírte de cómo se ve el atuendo de Ed Sheeran. algo que Troy Bolton usó en High School Musical 3.

Pero este año, la Met Gala fue una prueba.

«Katy Perry. Eso es todo”, decía una publicación de X. En la foto, Katy Perry parece llevar un vestido enorme decorado con apliques florales tridimensionales. A medida que el vestido nacarado cae hasta el suelo, su larga cola se desvanece en musgo de aspecto realista, que cae en cascada sobre la alfombra beige y roja de la Met Gala.

Si miras la imagen por más tiempo que una mirada superficial, es posible creer que la cantante de “Teenage Dream” llegó a la noche más importante de la moda con este vestido caprichoso que parece un bosque. Pero en todas las demás fotos de la Met Gala, la alfombra era blanca y verde como parte del tema “Jardín del Tiempo”; En esta foto, es beige y rojo. ¿Por qué Katy parece estar caminando por una alfombra diferente?

Esa es la señal reveladora de que esta imagen viral de Perry es falsa. Y, sin embargo, ya tiene más de 10 millones de visitas en X y más de 300.000 me gusta.

Minutos después, otro usuario de X publicó otra imagen de Perry. Sus labios están ligeramente entreabiertos como si los paparazzi la sorprendieran y lleva un corsé de bronce que parece la llave de un jardín. A diferencia de la primera imagen, esta en realidad tiene la paleta de colores y el escenario correctos para la gala de este año, pero todavía algo se siente mal. Su falda floral parece cortada y pegada a su cuerpo, y la luz incide sobre su corsé de una manera antinatural.

Entonces, ¿cómo sabes que es falsa y no una foto extraña? Ninguna revista de moda ha informado sobre el look de Katy Perry esta noche; no parece que vaya a asistir este año. Mientras tanto, a Perry le gustaron crípticamente ambos tweets virales, pero no comentó sobre las publicaciones engañosas.

Cada año en la Met Gala, Rihanna figura entre las mejor vestidas. En los días previos al evento, prometió a los fanáticos que llegaría al evento a tiempo para la cena; por lo general, llega muy tarde a la moda. Incluso se tiñó el pelo de rosa para la ocasión.

En el extremo anterior de la alfombra roja, apareció una imagen de Rihanna con un vestido dramáticamente majestuoso con temática de jardín. Los hombros se hinchan formando un halo escultórico, bordado con pájaros, enredaderas y flores. Pero nuevamente, a pesar de obtener 2,6 millones de visitas, la imagen no es real. Rihanna se tiñó el pelo de rosa, ¿recuerdas? Al igual que Perry, Rihanna no está a la vista. La revista People informó que Rihanna tuvo que faltar a las festividades del lunes por la noche después de contraer gripe.

Las consecuencias de un vestido falso de Rihanna son bastante menores. Pero basándose en la historia de Rihanna de acertar con el tema de la Met Gala, ¿realmente tomaría el camino más fácil y usaría un vestido floral para la celebración del “Garden of Time”? Como una canción de Drake falsificada por IA, estos looks sintéticos eran demasiado llamativos y carecían de la creatividad que hace que la Met Gala sea única. ¿Podría una IA crear el brillante traje de Cynthia Erivo o el espeluznante y fresco aspecto amaderado de Lana Del Rey?

Zendaya, una de las primeras favoritas para ser la mejor vestida, apareció relativamente con un traje azul verdoso que la hace parecer una villana de cuento de hadas súper chic. Horas más tarde, cuando apareció una imagen de Zendaya con un vestido de cuero negro y un tocado floral en la alfombra, me preparé para creer que se trataba de otra foto falsa. Pero la verdad es más extraña: después de cinco años ausente de la gala, Zendaya caminó por la alfombra dos veces con dos atuendos diferentes. Imagínate.

Aún así, cada nueva imagen de una celebridad sirvió como un llamado a revisar los patrones en la alfombra, las flores a lo largo de las barandillas de las escaleras y si los paparazzi en el fondo se ven un poco originales o no. Por lo general, la Met Gala es una oportunidad para charlar sobre los extravagantes atuendos de los famosos como una breve distracción de nuestras poco glamorosas noches de lunes. Pero en la era de las herramientas de inteligencia artificial generativa generalizadas, la cultura de las celebridades sirve como un recordatorio constante de que no podemos creer todo lo que vemos en línea.





Source link-48

]]>
https://magazineoffice.com/el-tema-de-la-met-gala-de-este-ano-son-los-deepfakes-de-ia/feed/ 0
India insta a los partidos políticos a evitar el uso de deepfakes en las campañas electorales https://magazineoffice.com/india-insta-a-los-partidos-politicos-a-evitar-el-uso-de-deepfakes-en-las-campanas-electorales/ https://magazineoffice.com/india-insta-a-los-partidos-politicos-a-evitar-el-uso-de-deepfakes-en-las-campanas-electorales/#respond Tue, 07 May 2024 07:42:10 +0000 https://magazineoffice.com/india-insta-a-los-partidos-politicos-a-evitar-el-uso-de-deepfakes-en-las-campanas-electorales/

La Comisión Electoral de la India ha emitido un aviso a todos los partidos políticos, instándolos a abstenerse de utilizar deepfakes y otras formas de desinformación en sus publicaciones en las redes sociales durante las elecciones generales en curso en el país. La medida se produce después de que el órgano constitucional enfrentara críticas por no hacer lo suficiente para combatir este tipo de campañas en la nación más poblada del mundo.

El aviso, publicado el lunes (PDF), exige que los partidos políticos eliminen cualquier audio o video deepfake dentro de las tres horas posteriores a tener conocimiento de su existencia. También se recomienda a las partes que identifiquen y adviertan a las personas responsables de crear el contenido manipulado. La acción de la Comisión Electoral sigue a una orden del Tribunal Superior de Delhi que solicita al organismo que resuelva el asunto después de que se planteó la cuestión en una petición.

India, hogar de más de 1.500 millones de personas, comenzó sus elecciones generales el 19 de abril y el proceso de votación concluirá el 1 de junio. Las elecciones ya se han visto empañadas por controversias en torno al uso de deepfakes y desinformación.

El Primer Ministro Narendra Modi se quejó a fines del mes pasado por el uso de voces falsas para supuestamente mostrar a líderes haciendo declaraciones que “ni siquiera habían pensado”, alegando que esto era parte de una conspiración diseñada para sembrar tensión en la sociedad.

La policía india arrestó al menos a seis personas de los equipos de redes sociales del Congreso Nacional Indio, el principal partido de oposición del país, por hacer circular un video falso que muestra al ministro del Interior, Amit Shah, haciendo declaraciones que, según afirma, nunca hizo.

India lleva varios meses luchando por el uso y la difusión de deepfakes. Ashwini Vaishnaw, ministro de TI de la India, se reunió en noviembre con grandes empresas de redes sociales, incluidas Meta y Google, y “llegó a un consenso” de que se necesitaba una regulación para combatir mejor la difusión de vídeos deepfake, así como de aplicaciones que facilitan su creación.

Otro ministro de TI advirtió en enero a las empresas de tecnología sobre sanciones severas, incluidas prohibiciones, si no tomaban medidas activas contra los videos deepfake. La nación aún debe codificar su proyecto de regulación sobre deepfakes como ley.

La Comisión Electoral dijo el lunes que ha estado “ordenando repetidamente” a los partidos políticos y a sus líderes que “mantengan el decoro y la máxima moderación en las campañas públicas”.



Source link-48

]]>
https://magazineoffice.com/india-insta-a-los-partidos-politicos-a-evitar-el-uso-de-deepfakes-en-las-campanas-electorales/feed/ 0
Duncan Crabtree-Ireland insta a los legisladores a ampliar a perpetuidad las protecciones del proyecto de ley sobre IA y califica a los deepfakes como una “amenaza existencial” https://magazineoffice.com/duncan-crabtree-ireland-insta-a-los-legisladores-a-ampliar-a-perpetuidad-las-protecciones-del-proyecto-de-ley-sobre-ia-y-califica-a-los-deepfakes-como-una-amenaza-existencial/ https://magazineoffice.com/duncan-crabtree-ireland-insta-a-los-legisladores-a-ampliar-a-perpetuidad-las-protecciones-del-proyecto-de-ley-sobre-ia-y-califica-a-los-deepfakes-como-una-amenaza-existencial/#respond Wed, 01 May 2024 00:54:57 +0000 https://magazineoffice.com/duncan-crabtree-ireland-insta-a-los-legisladores-a-ampliar-a-perpetuidad-las-protecciones-del-proyecto-de-ley-sobre-ia-y-califica-a-los-deepfakes-como-una-amenaza-existencial/

Duncan Crabtree-Ireland, de SAG-AFTRA, instó a los legisladores a avanzar con un proyecto de ley sobre IA que busca brindar una protección histórica contra la inteligencia artificial generativa.

«La tecnología de inteligencia artificial, si no está regulada, representa una amenaza existencial no solo para los miembros de SAG-AFTRA, sino también para el discurso civil, la salud y el bienestar de los estudiantes, la democracia y la seguridad nacional», dijo durante su testimonio ante los miembros del Subcomité de Asuntos Intelectuales del Comité Judicial del Senado. Propiedad sobre la Ley NO FAKES (léela aquí).

Además de exigir el consentimiento informado para las réplicas digitales, la Ley bipartidista NO FAKES, o la Ley Nurture Originals, Foster Art y Keep Entertainment Safe, ofrece protecciones federales históricas de propiedad intelectual contra la apropiación indebida de interpretaciones de voz y semejanza en grabaciones de sonido y obras audiovisuales.

La inteligencia artificial fue una piedra angular de las negociaciones de SAG-AFTRA con los estudios de Hollywood el año pasado y uno de los puntos conflictivos que llevaron al sindicato de actores a declararse en huelga durante 148 días. Como resultado, SAG-AFTRA (junto con la WGA y la DGA) obtuvieron disposiciones para proteger a sus miembros del uso de la IA.

SAG-AFTRA también negoció protecciones de IA en su contrato con la industria discográfica y está buscando disposiciones similares en su Acuerdo de Medios Interactivos con las compañías de videojuegos, aunque esas conversaciones están en curso.

Sin embargo, Crabtree-Ireland argumentó el martes que la regulación federal es necesaria para proteger completamente a los miembros del sindicato, porque “no pueden controlar lo que otros hacen con sus réplicas digitales generadas por IA y no pueden exigir con éxito una compensación por ese uso.

“Para un artista, su voz y su imagen son la base de su actuación, marca e identidad, desarrolladas con el tiempo, a través de inversión y trabajo duro. Tomar esa voz y semejanza es una forma de robo. Definitivamente no es ético y debe declararse ilegal”, afirmó.

Crabtree-Ireland también defendió la necesidad de que todas las personas estén protegidas del uso de réplicas digitales, utilizando su propia experiencia como ejemplo, explicando que el año pasado apareció en Internet un vídeo muy falso de él mismo instando a los miembros de SAG-AFTRA. no para ratificar su nuevo contrato de tres años.

“A pesar de un descargo de responsabilidad en la letra pequeña del título de que se trataba de un deepfake, muchos miembros nunca vieron ni leyeron ese descargo de responsabilidad. Muchos miembros se pusieron en contacto conmigo y me preguntaron por qué me opuse al contrato por el que había trabajado tan duro para negociar”, dijo. “Pero más allá de eso, hay algo singularmente deshumanizante en que tu propia voz e imagen se vuelvan en tu contra, poniendo patas arriba cualquier concepción de la libertad de expresión. Que se utilice tu propia voz para decir lo contrario de lo que crees – y no tener forma de detenerlo – es la máxima violación del derecho de todos a la libertad de expresión y asociación”.

A Crabtree-Ireland se unieron varios otros, incluido el artista discográfico FKA twigs, quien también habló firmemente en apoyo de la Ley NO FAKES. Les dijo a los senadores que, durante el último año, había desarrollado su propio deepfake para usarlo para sus propios fines creativos, y reiteró cómo podría explotarse si estuviera en manos de alguien que no tuviera su información. consentimiento para utilizarlo.

“He trabajado muy duro a lo largo de toda mi carrera y cuando muera, me gustaría que todo esto, todo lo que he creado, vaya a mi familia y a mi patrimonio, que tendrán instrucciones claras de cómo quiero vivir. preservar mi historia y todo el arte que he creado”, dijo.

Crabtree-Ireland estuvo de acuerdo con twigs en que las personas deberían conservar el derecho a dar su consentimiento para el uso de réplicas digitales a perpetuidad, incluso después de la muerte, porque «se trata del legado de una persona».

“Cada uno de nosotros es único. No hay otras ramitas y nunca las habrá. No hay otro tú ni tú ni ninguno de nosotros. Esto no es lo mismo que los derechos de autor”, dijo, refiriéndose a las limitaciones de las protecciones de los derechos de autor, que generalmente duran toda la vida del creador más 70 años.

Continuó: “Desde mi punto de vista, este es un derecho de propiedad intelectual que merece protección. Es absolutamente necesario protegerlo después de la muerte y, para ser honesto, estoy esperando escuchar una buena razón por la cual no debería ser así”.

La Ley NO FAKES está patrocinada por los senadores Chris Coons (D-DE), Marsha Blackburn (R-TN), Amy Klobuchar (D-MN) y Thom Tillis (R-NC).



Source link-18

]]>
https://magazineoffice.com/duncan-crabtree-ireland-insta-a-los-legisladores-a-ampliar-a-perpetuidad-las-protecciones-del-proyecto-de-ley-sobre-ia-y-califica-a-los-deepfakes-como-una-amenaza-existencial/feed/ 0
Deepfakes en la sala del tribunal: panel judicial de EE. UU. debate nuevas reglas sobre evidencia de IA https://magazineoffice.com/deepfakes-en-la-sala-del-tribunal-panel-judicial-de-ee-uu-debate-nuevas-reglas-sobre-evidencia-de-ia/ https://magazineoffice.com/deepfakes-en-la-sala-del-tribunal-panel-judicial-de-ee-uu-debate-nuevas-reglas-sobre-evidencia-de-ia/#respond Fri, 26 Apr 2024 00:39:47 +0000 https://magazineoffice.com/deepfakes-en-la-sala-del-tribunal-panel-judicial-de-ee-uu-debate-nuevas-reglas-sobre-evidencia-de-ia/

El viernes, un panel judicial federal se reunió en Washington, DC, para discutir los desafíos de vigilar las pruebas generadas por IA en los juicios, según un informe de Reuters. El Comité Asesor sobre Reglas de Evidencia de la Conferencia Judicial de EE. UU., un panel de ocho miembros responsable de redactar enmiendas a las Reglas Federales de Evidencia relacionadas con la evidencia, escuchó a científicos informáticos y académicos sobre los riesgos potenciales de que la IA se utilice para manipular imágenes y videos o crear deepfakes que podrían perturbar un juicio.

La reunión se llevó a cabo en medio de esfuerzos más amplios por parte de los tribunales federales y estatales de todo el país para abordar el aumento de los modelos de IA generativa (como los que impulsan ChatGPT de OpenAI o Stable Diffusion de Stability AI), que pueden entrenarse en grandes conjuntos de datos con el objetivo de producir texto realista. , imágenes, audio o vídeos.

En la agenda de 358 páginas publicada para la reunión, el comité ofrece esta definición de deepfake y los problemas que los medios generados por IA pueden plantear en los juicios legales:

Un deepfake es una presentación audiovisual no auténtica preparada por programas de software que utilizan inteligencia artificial. Por supuesto, las fotos y los vídeos siempre han estado sujetos a falsificación, pero los avances en la IA hacen que los deepfakes sean mucho más difíciles de detectar. El software para crear deepfakes ya está disponible gratuitamente en línea y es bastante fácil de usar para cualquiera. A medida que la usabilidad del software y la aparente autenticidad de los videos sigan mejorando con el tiempo, será más difícil para los sistemas informáticos, y mucho menos para los jurados legos, distinguir lo real de lo falso.

Durante la audiencia de tres horas del viernes, el panel debatió la cuestión de si las reglas existentes, anteriores al surgimiento de la IA generativa, son suficientes para garantizar la confiabilidad y autenticidad de las pruebas presentadas ante el tribunal.

Algunos jueces del panel, como el juez de circuito estadounidense Richard Sullivan y la jueza de distrito estadounidense Valerie Caproni, habrían expresado escepticismo sobre la urgencia de la cuestión, señalando que hasta ahora ha habido pocos casos en los que se haya pedido a los jueces que excluyan pruebas generadas por IA.

«No estoy seguro de que esta sea la crisis que se ha descrito, y no estoy seguro de que los jueces no tengan ya las herramientas para abordarla», dijo el juez Sullivan, citado por Reuters.

El año pasado, el presidente de la Corte Suprema de Estados Unidos, John Roberts, reconoció los beneficios potenciales de la IA para litigantes y jueces, al tiempo que enfatizó la necesidad de que el poder judicial considere sus usos adecuados en los litigios. El juez de distrito estadounidense Patrick Schiltz, presidente del comité de pruebas, dijo que determinar cómo el poder judicial puede reaccionar mejor ante la IA es una de las prioridades de Roberts.

En la reunión del viernes, el comité consideró varios cambios de reglas relacionadas con los deepfakes. En la agenda de la reunión, el juez federal de distrito Paul Grimm y la abogada Maura Grossman propusieron modificar la Regla Federal 901(b)(9) (ver página 5), ​​que implica autenticar o identificar evidencia. También recomendaron la adición de una nueva regla, 901(c), que podría decir:

901(c): Evidencia electrónica potencialmente fabricada o alterada. Si una parte que cuestiona la autenticidad de una prueba generada por computadora u otra prueba electrónica demuestra al tribunal que es más probable que sea fabricada o alterada total o parcialmente, la prueba es admisible sólo si el proponente demuestra que su valor probatorio supera su efecto perjudicial para la parte que impugna la prueba.

El panel acordó durante la reunión que esta propuesta para abordar las preocupaciones sobre los litigantes que cuestionan las pruebas como deepfakes no funcionó como está escrita y que será reelaborada antes de ser reconsiderada más adelante.

Otra propuesta de Andrea Roth, profesora de derecho de la Universidad de California, Berkeley, sugirió someter las pruebas generadas por máquinas a los mismos requisitos de confiabilidad que los testigos expertos. Sin embargo, el juez Schiltz advirtió que tal regla podría obstaculizar los procesamientos al permitir que los abogados defensores cuestionen cualquier evidencia digital sin establecer una razón para cuestionarla.

Por ahora, no se han realizado cambios definitivos en las reglas y el proceso continúa. Pero estamos siendo testigos de los primeros pasos de cómo el sistema de justicia estadounidense se adaptará a una clase completamente nueva de tecnología de generación de medios.

Dejando de lado los riesgos de las pruebas generadas por IA, la IA generativa ha provocado momentos embarazosos para los abogados en los tribunales durante los últimos dos años. En mayo de 2023, el abogado estadounidense Steven Schwartz de la firma Levidow, Levidow & Oberman se disculpó ante un juez por utilizar ChatGPT para ayudar a redactar documentos judiciales que citaban de manera inexacta seis casos inexistentes, lo que generó serias dudas sobre la confiabilidad de la IA en la investigación legal. Además, en noviembre, un abogado de Michael Cohen citó tres casos falsos que fueron potencialmente influenciados por un asistente de IA fabulador.



Source link-49

]]>
https://magazineoffice.com/deepfakes-en-la-sala-del-tribunal-panel-judicial-de-ee-uu-debate-nuevas-reglas-sobre-evidencia-de-ia/feed/ 0
Nueva ley del Reino Unido apunta a «individuos despreciables» que crean deepfakes sexuales con IA https://magazineoffice.com/nueva-ley-del-reino-unido-apunta-a-individuos-despreciables-que-crean-deepfakes-sexuales-con-ia/ https://magazineoffice.com/nueva-ley-del-reino-unido-apunta-a-individuos-despreciables-que-crean-deepfakes-sexuales-con-ia/#respond Wed, 17 Apr 2024 10:28:30 +0000 https://magazineoffice.com/nueva-ley-del-reino-unido-apunta-a-individuos-despreciables-que-crean-deepfakes-sexuales-con-ia/

El martes, el gobierno del Reino Unido anunció una nueva ley dirigida a la creación de imágenes deepfake sexualmente explícitas generadas por IA. Según la legislación, que aún no ha sido aprobada, los infractores enfrentarían procesamiento y una multa ilimitada, incluso si no comparten ampliamente las imágenes sino que las crean con la intención de angustiar a la víctima. El gobierno posiciona la ley como parte de un esfuerzo más amplio para mejorar la protección legal de las mujeres.

Durante la última década, el auge de la tecnología de síntesis de imágenes de aprendizaje profundo ha hecho que sea cada vez más fácil para las personas con una PC de consumo crear pornografía engañosa intercambiando los rostros de los artistas con alguien que no haya dado su consentimiento para el acto. Esa práctica generó el término «deepfake» alrededor de 2017, que lleva el nombre de un usuario de Reddit llamado «deepfakes» que compartía pornografía falsificada por IA en el servicio. Desde entonces, el término ha crecido hasta abarcar imágenes y vídeos completamente nuevos sintetizados completamente desde cero, creados a partir de redes neuronales que han sido entrenadas con imágenes de la víctima.

El problema no es exclusivo del Reino Unido. En marzo, los desnudos falsos de compañeras de secundaria en Florida dieron lugar a cargos contra dos niños de 13 y 14 años. El auge de los modelos de síntesis de imágenes de código abierto como Stable Diffusion desde 2022 ha aumentado la urgencia entre los reguladores de EE. UU. de intentar contener ( o al menos castigar) el acto de crear deepfakes no consensuados. El gobierno del Reino Unido tiene una misión similar.

«Según el nuevo delito, quienes crean estas horribles imágenes sin consentimiento se enfrentan a antecedentes penales y a una multa ilimitada. Si la imagen se comparte más ampliamente, los infractores podrían ser enviados a prisión», dijo el Ministerio de Justicia del Reino Unido en un comunicado. «La nueva ley significará que si alguien crea un deepfake sexualmente explícito, incluso si no tiene la intención de compartirlo sino que simplemente quiere causar alarma, humillación o angustia a la víctima, estará cometiendo un delito penal».

El año pasado, la controvertida Ley de Seguridad en Línea criminalizó el intercambio de imágenes deepfake no consensuadas. La nueva ley propuesta, que aún debe pasar por un proceso parlamentario para ser promulgada, marcaría la primera vez que la creación de deepfakes sexualmente explícitos de adultos sin su consentimiento se volverá ilegal en el Reino Unido (la distinción es compartir versus crear). El gobierno dice que las leyes existentes ya cubren la creación de deepfakes sexuales de niños.

El gobierno también busca reforzar las leyes existentes, permitiendo cargos tanto por la creación como por la distribución de contenido deepfake, lo que podría conducir a penas más severas por parte de la Fiscalía de la Corona (CPS).

En una declaración, la ministra de Salvaguardia, Laura Farris, enfatizó la postura del gobierno y afirmó: «La creación de imágenes sexuales ultrafalsas es despreciable y completamente inaceptable, independientemente de si la imagen se comparte. Este nuevo delito envía un mensaje muy claro de que hacer este material es inmoral, a menudo misógino y un crimen».



Source link-49

]]>
https://magazineoffice.com/nueva-ley-del-reino-unido-apunta-a-individuos-despreciables-que-crean-deepfakes-sexuales-con-ia/feed/ 0
Nuevo video AI de Open AI: Sora genera cortometrajes impresionantes y desencadena un debate sobre deepfakes y derechos de autor https://magazineoffice.com/nuevo-video-ai-de-open-ai-sora-genera-cortometrajes-impresionantes-y-desencadena-un-debate-sobre-deepfakes-y-derechos-de-autor/ https://magazineoffice.com/nuevo-video-ai-de-open-ai-sora-genera-cortometrajes-impresionantes-y-desencadena-un-debate-sobre-deepfakes-y-derechos-de-autor/#respond Sun, 18 Feb 2024 14:17:12 +0000 https://magazineoffice.com/nuevo-video-ai-de-open-ai-sora-genera-cortometrajes-impresionantes-y-desencadena-un-debate-sobre-deepfakes-y-derechos-de-autor/

El potencial de Sora es grande, pero la distribución masiva de vídeos falsos también puede crear enormes problemas. Tres puntos de crítica destacan particularmente en la discusión.

Mamuts en un paisaje nevado: Imagen de un breve vídeo con el que Open AI presentó la nueva herramienta de IA Sora.

IA abierta

Primero fueron textos, imágenes, canciones y ahora también películas: ya ninguna forma de arte está a salvo de la inteligencia artificial (IA). El viernes, la empresa líder en inteligencia artificial Open AI, en cuyos modelos de lenguaje se basa Chat-GPT, presentó un nuevo generador de vídeo llamado Sora.

El principio es sencillo: el software recibe información sobre el contenido del vídeo mediante un comando de texto. Cuanto más detallado sea el usuario sobre sus deseos, mejor será el resultado; y Sora ofrece vídeos cortos de hasta un minuto de duración en muy poco tiempo. El software también debería poder ampliar vídeos existentes o generar cortometrajes a partir de imágenes.

Open AI ha publicado decenas de ejemplos que dan una idea de las habilidades de Sora: tiernos personajes de dibujos animados, un vaquero espacial solitario en un desierto salado o una manada de mamuts en un paisaje nevado: las peticiones humanas, Sora las cumple.

Los videos creados son visualmente atractivos y, a veces, muy detallados. Los efectos de iluminación y los travellings son impresionantes. Los rasgos faciales y los movimientos de las personas mostradas también parecen mucho más realistas que en los generadores de vídeo anteriores.

A Sora se le encargó mostrar a una mujer elegante caminando por una calle iluminada con luces de neón en Tokio.

sora

Los cortometrajes a veces contienen errores: no siempre se siguen las reglas de la física, por lo que a veces los objetos aparecen de la nada. También hay errores de contenido. Las hormigas, por ejemplo, que sólo tienen cuatro patas en lugar de seis. O tableros de ajedrez que tienen proporciones incorrectas y se juegan con tres reyes en lugar de dos. Los errores, a veces mayores y a veces menores, muestran que el software está lejos de ser perfecto.

Actualmente, Sora solo está disponible para un pequeño grupo de artistas y probadores beta. Los evaluadores deben comprobar si el software puede utilizarse indebidamente con fines maliciosos. Los diseñadores, a su vez, deberían dar su opinión a Open AI sobre cómo hacer que Sora sea aún más útil como herramienta para su trabajo.

Como suele ocurrir cuando se trata de nuevas aplicaciones de Open AI, el público reacciona ante la nueva herramienta con una mezcla de fascinación y miedo. Tres temas destacan particularmente en la discusión.

Manipulación electoral mediante deepfakes

En primer lugar, existe un temor generalizado de que Sora sea utilizado indebidamente con fines políticos al permitir deepfakes: videos engañosamente reales, pero creados artificialmente que pueden, entre otras cosas, engañar a los votantes y retratar a los candidatos de manera negativa.

Se trata de mucho. Este año se celebran elecciones históricas en India y Estados Unidos, entre otros. El propio jefe de Open AI, Altman, ha prometió garantizar que Chat-GPT no pueda ser utilizado indebidamente para la campaña electoral estadounidense. La empresa estableció directrices para ello en enero. Pero los obstáculos integrados en Chat-GPT a menudo pueden superarse si formula las indicaciones correctamente.

La historia también muestra que casi todas las herramientas técnicas que existen tarde o temprano se utilizarán en las campañas electorales. En Estados Unidos, por ejemplo, los vídeos de campañas electorales negativos y sin principios están muy extendidos desde hace muchas décadas. En 1964, los demócratas retrataron al candidato presidencial republicano Barry Goldwater en un anuncio de campaña como un extremista peligroso que llevaría al mundo a la destrucción nuclear… y tuvieron éxito.

No es un deepfake, sino uno de los primeros y más famosos vídeos negativos de campaña del mundo: el “Daisy Ad” de los demócratas estadounidenses de 1964.

Biblioteca del Congreso

El legendario “Daisy Ad” no hizo ninguna referencia directa a Goldwater. Hoy en día, la preocupación es que, gracias a herramientas como Sora, las plataformas de redes sociales están inundadas de vídeos falsos de los candidatos y no hay forma de exponer y prohibir las falsificaciones con la suficiente rapidez.

Las marcas de agua integradas en los vídeos desde el principio pueden ser un antídoto, pero también se pueden eliminar con suficientes conocimientos técnicos. Paralelamente a Sora, Open AI también está desarrollando herramientas que pueden clasificar vídeos del software. En cierto sentido, la empresa está compitiendo contra sí misma.

Si cientos de deepfakes de Joe Biden o Donald Trump inundaran las redes sociales, sin duda tendría un efecto en las elecciones presidenciales. Si se diera la impresión de que “todo en la campaña electoral está manipulado de todos modos” y “de todos modos, todos los políticos mienten”, esto podría alejar aún más a la población de los procesos democráticos.

Esto ya se ha intentado: en el año electoral estadounidense de 2016, por ejemplo, algunos republicanos trabajaron con datos que la consultora británica Cambridge Analytica había extraído de Facebook para enviar mensajes personalizados a partes del electorado.

Uno de los objetivos era impedir que grupos tradicionalmente cercanos a los demócratas acudieran a las urnas: un voto menos para Hillary Clinton era también un voto para Donald Trump. Es controvertido cuánta influencia tuvieron realmente tales experimentos. – pero eso no cambia el hecho de que los experimentos se llevaron a cabo.

Porno de venganza con IA a tu alcance

En segundo lugar, las falsificaciones generadas por IA pueden también causan grandes daños fuera del ámbito político. Durante años, las mujeres en particular han estado luchando contra los hombres que utilizan la IA para crear imágenes y vídeos pornográficos falsos de ellos y distribuirlos en foros de Internet. A veces las víctimas son estrellas famosas, a veces hombres se vengan de sus exparejas.

Un estudio de la empresa de ciberseguridad Deeptrace Ya en 2019 llegó a la conclusión de que el 96 por ciento de todos los vídeos deepfake encontrados online eran pornografía no consentida. Open AI es consciente de este peligro y escribe: Sora no acepta indicaciones que requieran violencia extrema, contenido sexual o parecido con personas reales..

Intercambiaremos ideas con expertos y políticos y tomaremos en serio sus preocupaciones. Sin embargo, no es posible predecir todas las posibles variantes que podrían utilizarse para hacer un mal uso del software, escribe Open AI.

Copyright: ¿Dónde aprendió Sora su oficio?

Un tercer punto de discusión es el derecho de autor; un campo minado familiar para empresas de IA como Open AI. Como es bien sabido, el New York Times demandó tanto a Open AI como a Microsoft porque sus modelos utilizaban el contenido del periódico durante el entrenamiento. Y de hecho, Open AI, que por lo demás pone mucho énfasis en la transparencia, hasta ahora apenas ha revelado con qué material original alimentó a Chat-GPT and Co.

El malestar es particularmente grande en Hollywood. En 2023, actrices y guionistas iniciaron una huelga de meses, que paralizó gran parte de la industria cinematográfica estadounidense. Entre otras cosas, los huelguistas temían que los estudios utilizaran cada vez más la IA para explotar su imagen digital y privarlos de sus salarios.

Durante mucho tiempo, tales intentos fueron motivo de burla., porque la inteligencia artificial no era lo suficientemente buena. Eso podría cambiar con Sora. Los diseñadores gráficos ya están preocupados por la posibilidad de que la IA los deje sin empleo.

Los generadores de imágenes como Dall-E de Open AI o Midjourney ahora crean ilustraciones personalizadas en todo tipo de estilos con solo presionar un botón. Algunos periódicos y empresas ya utilizan estas herramientas para obtener imágenes de forma económica y rápida y, por supuesto, ya no encargan este trabajo a un diseñador gráfico.

Open AI quiere contrarrestar estas críticas a Sora involucrando a artistas y diseñadores desde una etapa temprana. Pero como escribe la propia empresa: no puede predecir todas las aplicaciones que se utilizarán con su tecnología. El genio está fuera de la botella. Las herramientas de IA están ahí; y los próximos meses mostraremos cómo se utilizan.

¿Una serie de dibujos animados como anticipo de la nueva realidad? En “BoJack Horseman”, la estrella está completamente medida para que el estudio pueda completar la película sin él si es necesario.

YouTube





Source link-58

]]>
https://magazineoffice.com/nuevo-video-ai-de-open-ai-sora-genera-cortometrajes-impresionantes-y-desencadena-un-debate-sobre-deepfakes-y-derechos-de-autor/feed/ 0