deepfake – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sat, 25 May 2024 09:41:29 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Max Turner de Coronation Street enfrenta sospechas en la historia deepfake de Abi https://magazineoffice.com/max-turner-de-coronation-street-enfrenta-sospechas-en-la-historia-deepfake-de-abi/ https://magazineoffice.com/max-turner-de-coronation-street-enfrenta-sospechas-en-la-historia-deepfake-de-abi/#respond Sat, 25 May 2024 09:41:26 +0000 https://magazineoffice.com/max-turner-de-coronation-street-enfrenta-sospechas-en-la-historia-deepfake-de-abi/

Calle Coronación Siguen los spoilers.

Calle CoronaciónKevin y Abi Webster se enfurecieron esta noche (24 de mayo), mientras continuaba la historia del porno de venganza deepfake.

La pareja se sorprendió recientemente al descubrir que se había publicado en línea un video de «Abi» teniendo relaciones sexuales, y Abi se sintió aún más violada ya que no recordaba haber sido filmada.

En el último episodio, Abi se enojó al ver que se compartía en sitios web más rápido de lo que ella podía denunciarlo.

ITV

Relacionado: Calle Coronación lanza tráiler de la dramática semana de Lauren Bolton

Creyendo que era el narcotraficante Dean, quien se aprovechó de ella una vez cuando estaba bajo los efectos del alcohol, lo arrinconó en la calle y lo amenazó con una llave inglesa.

Él suplicó que no era él, y ella solo lo dejó ir después de que Kevin apareció y le dijo que ella sería la que tendría problemas con la policía.

De vuelta en casa, Abi dijo que necesitaba hacer el esfuerzo y ver el vídeo. Inmediatamente supo que no era ella, señalando un tatuaje que no tiene.

Le explicó a Kevin que se trataba de un deepfake y que Dean no tenía los conocimientos tecnológicos suficientes para hacerlo. Añadió que él era demasiado una persona que «lo hacía él mismo» como para conseguir que otra persona creara el vídeo para él.

Eso dejó la pregunta de quién podría ser.

Más tarde, Max pasó por el garaje para disculparse por haber hecho antes una broma a expensas de Kevin y Abi. Se ofreció a rehacer el sitio web de la empresa de forma gratuita, ya que también se compartieron videos sobre él en línea.

abi webster, max turner, kevin webster, calle de la coronación

ITV

Relacionado: Calle CoronaciónLa obra de Catherine Tyldesley se enfrenta a un hacha sorpresa

Kevin agradeció el amable gesto, pero después de irse, Cassie Plummer dijo que la persona que hizo el video debía ser buena en tecnología. Sumó dos y dos en su cabeza e inmediatamente se fue furioso a la casa de los Platt.

Al irrumpir en la casa, Kevin acusó a Max de crear los videos, ya que inicialmente se negó a pagarle por el sitio web y había hecho videos para la pandilla de extrema derecha antes. Abi lo arrastró a casa para confrontarlo por su comportamiento.

«Estos videos fueron hechos porque alguien me guarda rencor… el mundo no gira a tu alrededor», le dijo enojada. Luego agregó que solo quiere que el video desaparezca y que ahora más personas hablarán de ello.

Mientras tanto, Cassie intentó reavivar la situación en el garaje y le dijo a Kevin que tenía razón al ser tan protector.

Calle Coronación se transmite los lunes, miércoles y viernes a las 8 p.m. en ITV1 y se transmite en ITVX.

Leer más Calle Coronación spoilers en nuestra página de inicio dedicada



Source link-17

]]>
https://magazineoffice.com/max-turner-de-coronation-street-enfrenta-sospechas-en-la-historia-deepfake-de-abi/feed/ 0
Consultor demócrata acusado de deepfake de Biden que decía a la gente que no votara https://magazineoffice.com/consultor-democrata-acusado-de-deepfake-de-biden-que-decia-a-la-gente-que-no-votara/ https://magazineoffice.com/consultor-democrata-acusado-de-deepfake-de-biden-que-decia-a-la-gente-que-no-votara/#respond Fri, 24 May 2024 15:56:50 +0000 https://magazineoffice.com/consultor-democrata-acusado-de-deepfake-de-biden-que-decia-a-la-gente-que-no-votara/

Agrandar / El presidente Joe Biden en un evento en el jardín de rosas de la Casa Blanca el 1 de mayo de 2023, en Washington, DC.

Imágenes falsas | Alex Wong

Un consultor demócrata fue acusado de supresión de votantes y suplantación de un candidato después de admitir que encargó una llamada automática que utilizaba inteligencia artificial para imitar la voz del presidente Joe Biden. El consultor político Steven Kramer también se enfrenta a una multa de 6 millones de dólares propuesta por la Comisión Federal de Comunicaciones.

La llamada automática falsa de Biden instó a los demócratas a no votar y fue enviada a los residentes de New Hampshire antes de las primarias presidenciales del estado en enero. Kramer, que trabajaba para un candidato que se postulaba contra Biden, reconoció que él era el responsable de la llamada automática en febrero.

Kramer, un hombre de 54 años de Nueva Orleans, «ha sido acusado de 13 delitos graves de supresión de votantes… y 13 delitos menores de suplantación de un candidato», anunció hoy el fiscal general de New Hampshire, John Formella. «Los cargos se distribuyen en cuatro condados según la residencia de trece residentes de New Hampshire que recibieron las llamadas automáticas de Biden».

Formella dijo que su oficina todavía está investigando el incidente. «New Hampshire sigue comprometido a garantizar que nuestras elecciones permanezcan libres de interferencias ilegales y nuestra investigación sobre este asunto sigue en curso», dijo.

Por otra parte, la FCC propuso hoy una multa de $6 millones contra Kramer en un Aviso de responsabilidad aparente por decomiso. Kramer tendrá la oportunidad de responder antes de que la FCC tome una decisión final sobre la multa.

«El consultor político Steve Kramer fue responsable de las llamadas», que «aparentemente violaron la Ley de Veracidad en el Identificador de Llamadas al falsificar maliciosamente el número de un destacado consultor político local», dijo la FCC. «Las llamadas automáticas, realizadas dos días antes de las elecciones, utilizaron una voz falsa de la voz del presidente Biden y alentaron a los votantes a no votar en las primarias sino a ‘guardar su voto para las elecciones de noviembre'».

Kramer defendió la llamada falsa de Biden

Kramer defendió sus acciones después de que su papel fuera revelado en un artículo de NBC News. «Kramer afirmó que planeó la llamada automática falsa desde el principio como un acto de desobediencia civil para llamar la atención sobre los peligros de la IA en la política», escribió NBC News en febrero después de hablar con Kramer. «Se comparó con los héroes revolucionarios estadounidenses Paul Revere y Thomas Paine. Dijo que es necesaria una mayor aplicación de la ley para impedir que personas como él hagan lo que hizo».

«Para mí, esta es una manera de marcar la diferencia, y lo he hecho», dijo Kramer a NBC News en una entrevista. «Por 500 dólares, obtuve alrededor de 5 millones de dólares en acciones, ya sea atención de los medios o acciones regulatorias».

Kramer trabajaba como consultor para el demócrata Dean Phillips, un representante estadounidense de Minnesota que se postuló contra Biden en las primarias demócratas de New Hampshire. Phillips suspendió su arriesgada campaña presidencial en marzo.

«Phillips y su campaña han denunciado la llamada automática, diciendo que no tenían conocimiento de la participación de Kramer y que lo habrían despedido inmediatamente si lo hubieran sabido», escribió NBC News. Kramer también dijo que Phillips no tuvo nada que ver con la llamada automática.

A principios de febrero, la oficina de New Hampshire AG dijo que la llamada automática se remontaba a una empresa de Texas llamada Life Corporation y a una persona llamada Walter Monk. Pero la oficina del fiscal general dijo que «continuaba investigando si Life Corporation trabajó con o bajo la dirección de otras personas o entidades».

Se descubrió que la compañía telefónica Lingo Telecom, con sede en Texas, transmitió las llamadas y ahora enfrenta una multa de la FCC. La FCC propuso hoy una multa de 2 millones de dólares contra Lingo Telecom por «etiquetar incorrectamente [the calls] con el nivel más alto de certificación de identificación de llamadas y haciendo menos probable que otros proveedores puedan detectar las llamadas como potencialmente falsificadas».

La FCC alegó que Lingo Telecom violó las reglas relacionadas con el sistema de autenticación de identificación de llamadas STIR/SHAKEN. «Lingo Telecom no siguió los principios de ‘Conozca a su cliente’ al aplicar la certificación de más alto nivel (lo que significa confianza en la información del identificador de llamadas) a llamadas aparentemente ilegales sin hacer ningún esfuerzo por verificar la exactitud de la información», dijo la FCC.



Source link-49

]]>
https://magazineoffice.com/consultor-democrata-acusado-de-deepfake-de-biden-que-decia-a-la-gente-que-no-votara/feed/ 0
La degradación no detendrá el problema de la pornografía deepfake de Google, dicen las víctimas https://magazineoffice.com/la-degradacion-no-detendra-el-problema-de-la-pornografia-deepfake-de-google-dicen-las-victimas/ https://magazineoffice.com/la-degradacion-no-detendra-el-problema-de-la-pornografia-deepfake-de-google-dicen-las-victimas/#respond Thu, 16 May 2024 11:34:48 +0000 https://magazineoffice.com/la-degradacion-no-detendra-el-problema-de-la-pornografia-deepfake-de-google-dicen-las-victimas/

Después de la reacción violenta por el hecho de que el motor de búsqueda de Google se convirtiera en la principal fuente de tráfico para sitios web de pornografía deepfake, Google comenzó a ocultar estos enlaces en los resultados de búsqueda, informó Bloomberg.

Durante el año pasado, Google ha estado dirigiendo millones a sitios controvertidos que distribuyen pornografía generada por IA que muestra a personas reales en videos sexuales falsos que fueron creados sin su consentimiento, descubrió Similarweb. Si bien cualquiera puede ser el objetivo (la policía ya está atascada al lidiar con una avalancha de imágenes falsas de sexo infantil hechas por IA), las celebridades femeninas son las víctimas más comunes. Y sus imágenes íntimas falsas y no consensuadas se pueden descubrir más fácilmente en Google buscando casi cualquier nombre famoso con la palabra clave «deepfake», señaló Bloomberg.

Google se refiere a este contenido como «falso involuntario» o «pornografía sintética». El motor de búsqueda proporciona una ruta para que las víctimas informen ese contenido cada vez que aparece en los resultados de búsqueda. Y al procesar estas solicitudes, Google también elimina duplicados de cualquier deepfake marcado.

El portavoz de Google dijo a Ars que además de reducir los enlaces en los resultados de búsqueda, Google «continúa disminuyendo la visibilidad de la pornografía sintética involuntaria en la Búsqueda» y planea «desarrollar más salvaguardas a medida que este espacio evolucione».

«Hemos estado desarrollando activamente nuevas protecciones en la Búsqueda para ayudar a las personas afectadas por este contenido, basándose en nuestras políticas existentes», dijo el portavoz de Google.

Sin embargo, durante el año pasado, algunas víctimas criticaron el proceso de Google para eliminar los deepfakes como engorroso. Kaitlyn Siragusa, una jugadora de Twitch con un Onlyfans explícito, le dijo a Bloomberg en 2023 que, como objetivo frecuente de los deepfakes, descubrió que solicitar la eliminación de cada enlace de deepfake es «un proceso que consume tiempo y energía».

«Es una batalla constante», dijo Siragusa.

En respuesta a que Google haya rebajado la clasificación de los deepfakes, Carrie Goldberg, una abogada que representa a víctimas cuyos materiales sexuales se difunden en línea sin consentimiento, le dijo a Bloomberg que la última actualización de Google hace «lo mínimo indispensable».

Para las víctimas, la conclusión es que los enlaces problemáticos seguirán apareciendo en los resultados de búsqueda de Google para cualquiera que esté dispuesto a seguir desplazándose, y la búsqueda intencionada de «deepfake» le dirigirá a los sitios más populares que luego se pueden buscar.

Entonces, aunque el tráfico de búsqueda en EE. UU. hacia los dos sitios de pornografía deepfake más populares ha disminuido hasta en un 25 por ciento «en los primeros 10 días de mayo en comparación con el promedio de los seis meses anteriores», informó Bloomberg, las víctimas todavía tienen dificultades para trabajar. con Google para detener la propagación.

«Google ha arruinado vidas y es vergonzosamente inflexible a la hora de responder a los problemas en desarrollo», dijo Goldberg, uniéndose a otros que criticaron la medida de Google como «demasiado pequeña y demasiado tarde».

La solución de Google todavía impone en gran medida a las víctimas la responsabilidad de descubrir deepfakes y solicitar eliminaciones, aparentemente principalmente porque Google solo elimina proactivamente resultados web cuando el contenido entra directamente en conflicto con la ley o sus políticas de contenido.

Eso incluiría eliminar materiales de abuso sexual infantil, spam o información personal que podría usarse para engañar a alguien. Pero el porno deepfake permanece en un área legalmente gris y, debido a eso, cualquiera puede usar el motor de búsqueda más popular del mundo para mostrar imágenes íntimas no consentidas generadas por IA cuando lo desee. Y aunque bajar la clasificación puede hacer que sea más difícil mostrar pornografía deepfake a los internautas ocasionales, también hace que sea más difícil y lleve aún más tiempo para las víctimas atrapadas buscando sus deepfakes denunciarlos y eliminarlos de la lista.

Algunos estados han prohibido los deepfakes, pero hasta ahora no existe ninguna ley federal que pueda obligar a Google a ser más proactivo a la hora de eliminar enlaces.

Eso podría cambiar si una víctima de la escuela secundaria, Francesca Mani, se sale con la suya. Ella apoya la “Ley de Prevención de Deepfakes de Imágenes Íntimas”, que busca criminalizar la pornografía deepfake e impone daños y perjuicios que podrían llegar hasta $150,000 y prisión de hasta 10 años si compartir las imágenes facilita la violencia o impacta los procedimientos de una agencia gubernamental.

Esa legislación fue presentada este mes en la Cámara de Representantes de Estados Unidos y ha sido remitida al comité judicial, que tiene jurisdicción sobre las agencias encargadas de hacer cumplir la ley.

«Estoy aquí, levantándome y gritando por el cambio, luchando por leyes, para que nadie más tenga que sentirse tan perdido e impotente como yo», dijo Mani, de 14 años, cuando se presentó la legislación.

Si bien la difusión de pornografía deepfake exacerba los daños, algunos piensan que, en primer lugar, debería ser un delito crear imágenes dañinas. El Reino Unido está sopesando una legislación que imponga una «multa ilimitada» y posible pena de cárcel sólo por crear imágenes ultrafalsas, incluso si alguien nunca planea compartir las imágenes, informó Time.

Hasta que haya claridad legal para las víctimas de deepfake, la base legal para solicitar la exclusión de la lista de los resultados de búsqueda de Google sigue siendo «inestable», escribió en The Atlantic Nina Jankowicz, investigadora de desinformación y víctima de deepfake.

Para las víctimas, parece que ninguna solución es suficiente para poner fin al acoso continuo de los deepfake.

Según Jankowicz, aprobar la ley federal «no resolverá el problema de los deepfakes», porque «Internet es para siempre», «la IA se vuelve más poderosa cada mes» y los usuarios que generan este contenido son «notablemente indiferentes ante la invasión de la privacidad». están perpetrando.»

«Mientras los responsables políticos se preocupan de que la IA destruya el mundo, les ruego: primero detengamos a los hombres que la utilizan para desacreditar y humillar a las mujeres», escribió Jankowicz.

Además de adaptar las leyes y reducir la propagación en línea, se necesita un cambio cultural para poner fin al abuso, sugiere Jankowicz. Tal como están las cosas ahora, la pornografía deepfake «se ha convertido en un arma preciada en el arsenal que los misóginos utilizan para tratar de expulsar a las mujeres de la vida pública», escribió Jankowicz.



Source link-49

]]>
https://magazineoffice.com/la-degradacion-no-detendra-el-problema-de-la-pornografia-deepfake-de-google-dicen-las-victimas/feed/ 0
Google prohíbe los anuncios que promocionan sitios web y aplicaciones que generan pornografía deepfake https://magazineoffice.com/google-prohibe-los-anuncios-que-promocionan-sitios-web-y-aplicaciones-que-generan-pornografia-deepfake/ https://magazineoffice.com/google-prohibe-los-anuncios-que-promocionan-sitios-web-y-aplicaciones-que-generan-pornografia-deepfake/#respond Sun, 05 May 2024 06:32:30 +0000 https://magazineoffice.com/google-prohibe-los-anuncios-que-promocionan-sitios-web-y-aplicaciones-que-generan-pornografia-deepfake/

Google ha actualizado su Política de contenido inapropiado para incluir un lenguaje que prohíba expresamente a los anunciantes promocionar sitios web y servicios que generen pornografía deepfake. Si bien la compañía ya tiene fuertes restricciones para los anuncios que presentan ciertos tipos de contenido sexual, esta actualización no deja dudas de que promover «contenido sintético que ha sido alterado o generado para ser sexualmente explícito o contener desnudez» viola sus reglas.

Cualquier anunciante que promocione sitios o aplicaciones que generen pornografía deepfake, que muestren instrucciones sobre cómo crear pornografía deepfake y que respalden o comparen varios servicios de pornografía deepfake serán suspendidos sin previo aviso. Tampoco podrán publicar sus anuncios en Google. La compañía comenzará a implementar esta regla el 30 de mayo y brindará a los anunciantes la oportunidad de eliminar cualquier anuncio que infrinja la nueva política. Como 404 Medios Como señala, el auge de las tecnologías deepfake ha llevado a un número cada vez mayor de anuncios que promocionan herramientas dirigidas específicamente a usuarios que desean crear materiales sexualmente explícitos. Según se informa, algunas de esas herramientas incluso pretenden ser servicios saludables para poder aparecer en la App Store de Apple y en la Google Play Store, pero se ocultan en las redes sociales donde promueven su capacidad para generar pornografía manipulada.

Sin embargo, Google ya ha comenzado a prohibir los servicios que crean deepfakes sexualmente explícitos en los anuncios de Shopping. De manera similar a su próxima política más amplia, la compañía ha prohibido los anuncios de Shopping para servicios que «generan, distribuyen o almacenan contenido sintético sexualmente explícito o contenido sintético que contenga desnudez». Estos incluyen tutoriales de pornografía deepfake y páginas que anuncian generadores de pornografía deepfake.



Source link-47

]]>
https://magazineoffice.com/google-prohibe-los-anuncios-que-promocionan-sitios-web-y-aplicaciones-que-generan-pornografia-deepfake/feed/ 0
Google prohíbe a los anunciantes promocionar servicios de pornografía deepfake https://magazineoffice.com/google-prohibe-a-los-anunciantes-promocionar-servicios-de-pornografia-deepfake/ https://magazineoffice.com/google-prohibe-a-los-anunciantes-promocionar-servicios-de-pornografia-deepfake/#respond Sat, 04 May 2024 04:51:37 +0000 https://magazineoffice.com/google-prohibe-a-los-anunciantes-promocionar-servicios-de-pornografia-deepfake/

Google ha prohibido durante mucho tiempo los anuncios sexualmente explícitos, pero hasta ahora, la compañía no ha prohibido a los anunciantes promocionar servicios que la gente puede usar para hacer porno deepfake y otras formas de desnudos generados. Eso está a punto de cambiar.

Google actualmente prohíbe a los anunciantes promocionar «contenido sexualmente explícito», que Google define como «texto, imagen, audio o vídeo de actos sexuales gráficos destinados a excitar». El nueva politica ahora también prohíbe la publicidad de servicios que ayuden a los usuarios a crear ese tipo de contenido, ya sea alterando la imagen de una persona o generando una nueva.

El cambio, que entrará en vigor el 30 de mayo, prohíbe “promover contenido sintético que haya sido alterado o generado para que sea sexualmente explícito o contenga desnudez”, como sitios web y aplicaciones que instruyan a las personas sobre cómo crear pornografía deepfake.

«Esta actualización tiene como objetivo prohibir explícitamente los anuncios de servicios que ofrecen crear pornografía deepfake o contenido de desnudos sintéticos», dice el portavoz de Google, Michael Aciman. El borde.

Aciman dice que cualquier anuncio que viole sus políticas será eliminado y agrega que la compañía utiliza una combinación de revisiones humanas y sistemas automatizados para hacer cumplir esas políticas. En 2023, Google eliminó más de 1.800 millones de anuncios por violar sus políticas sobre contenido sexual, según el informe de la compañía. Informe anual de seguridad de los anuncios.

El cambio fue reportado por primera vez por 404 Medios. Como 404 señala que, si bien Google ya prohibió a los anunciantes promocionar contenido sexual explícito, algunas aplicaciones que facilitan la creación de pornografía deepfake han evitado esto anunciándose como no sexuales en los anuncios de Google o en la tienda Google Play. Por ejemplo, una aplicación de intercambio de caras no se anunciaba como sexualmente explícita en la tienda Google Play, pero sí en sitios porno.

La pornografía deepfake no consensuada se ha convertido en un problema constante en los últimos años. Dos estudiantes de secundaria de Florida fueron arrestados en diciembre pasado por supuestamente crear fotografías de desnudos de sus compañeros de clase generadas por IA. Esta misma semana, un hombre de Pittsburgh de 57 años fue condenado a más de 14 años de prisión por poseer material falso de abuso sexual infantil. El año pasado, el FBI emitió un aviso sobre un “aumento” en los esquemas de extorsión que implicaban chantajear a personas con desnudos generados por IA. Si bien muchos modelos de IA hacen que sea difícil, si no imposible, que los usuarios creen desnudos generados por IA, algunos servicios permitir a los usuarios generar contenido sexual.

Es posible que pronto se tomen medidas legislativas sobre la pornografía deepfake. El mes pasado, la Cámara y el Senado introdujo la Ley DEFIANCEque establecería un proceso a través del cual las víctimas de “falsificación digital” podrían demandar a las personas que hagan o distribuyan deepfakes no consensuales de ellos.



Source link-37

]]>
https://magazineoffice.com/google-prohibe-a-los-anunciantes-promocionar-servicios-de-pornografia-deepfake/feed/ 0
El sitio web de pornografía deepfake más grande ahora está bloqueado en el Reino Unido https://magazineoffice.com/el-sitio-web-de-pornografia-deepfake-mas-grande-ahora-esta-bloqueado-en-el-reino-unido/ https://magazineoffice.com/el-sitio-web-de-pornografia-deepfake-mas-grande-ahora-esta-bloqueado-en-el-reino-unido/#respond Fri, 19 Apr 2024 22:21:06 +0000 https://magazineoffice.com/el-sitio-web-de-pornografia-deepfake-mas-grande-ahora-esta-bloqueado-en-el-reino-unido/

Dos de los sitios web de pornografía deepfake más importantes han comenzado a bloquear a las personas que intentan acceder a ellos desde el Reino Unido. La medida se produce días después de que el gobierno del Reino Unido anunciara planes para una nueva ley que tipificará como delito la creación de deepfakes no consensuales.

Los sitios web y aplicaciones de pornografía ultrafalsa no consensuada que “quitan” la ropa de las fotos han ido creciendo a un ritmo alarmante, causando un daño incalculable a las miles de mujeres a las que están acostumbrados.

Clare McGlynn, profesora de derecho en la Universidad de Durham, dice que la medida es un “momento enormemente significativo” en la lucha contra el abuso de los deepfake. «Esto pone fin al fácil acceso y la normalización del material de abuso sexual deepfake», dice McGlynn a WIRED.

Desde que surgió la tecnología deepfake en diciembre de 2017, se ha utilizado constantemente para crear imágenes sexuales no consensuadas de mujeres: intercambiando sus rostros en videos pornográficos o permitiendo que se generen nuevas imágenes de “desnudos”. A medida que la tecnología mejoró y se volvió más fácil de acceder, se crearon cientos de sitios web y aplicaciones. Más recientemente, se ha sorprendido a escolares creando desnudos de compañeros de clase.

Los bloqueos en los sitios web deepfake en el Reino Unido se detectaron por primera vez hoy, y dos de los servicios más destacados muestran avisos en sus páginas de destino indicando que ya no son accesibles para las personas que visitan el país. WIRED no nombra los dos sitios web debido a que permiten el abuso.

Uno de los sitios web con esta restricción es el mayor sitio web de pornografía deepfake que existe en la actualidad. Su página de inicio, cuando se visita desde el Reino Unido, muestra un mensaje que indica acceso denegado. «Debido a leyes o legislación (próxima) en su país o estado, lamentablemente estamos obligados a negarle el acceso a este sitio web», dice el mensaje. También muestra la dirección IP y el país del visitante.

El otro sitio web, que también tiene una aplicación, muestra un mensaje similar. «El acceso al servicio en su país está bloqueado», dice, antes de insinuar que puede haber formas de sortear la restricción geográfica. Los sitios web no parecen tener restricciones para visitas desde los Estados Unidos, aunque también pueden estar restringidos en otros países.

No está claro de inmediato por qué los sitios han introducido bloqueos de ubicación o si lo han hecho en respuesta a órdenes o avisos legales. Tampoco está claro si los bloqueos son temporales. Los mensajes enviados a los sitios web a través de direcciones de correo electrónico y formularios de contacto quedaron sin respuesta. Los creadores de los sitios web no han publicado ningún mensaje público en los sitios web ni en sus canales de redes sociales sobre los bloqueos.

Ofcom, el regulador de comunicaciones del Reino Unido, tiene el poder de emprender acciones contra sitios web dañinos en virtud de las controvertidas y amplias leyes de seguridad en línea del Reino Unido que entraron en vigor el año pasado. Sin embargo, estos poderes aún no están en pleno funcionamiento y Ofcom todavía está consultando sobre ellos.

Es probable que las restricciones limiten significativamente la cantidad de personas en el Reino Unido que buscan o intentan crear contenido de abuso sexual deepfake. Los datos de Similarweb, una empresa de inteligencia digital, muestran que el mayor de los dos sitios web tuvo 12 millones de visitantes globales el mes pasado, mientras que el otro sitio web tuvo 4 millones de visitantes. En el Reino Unido, tuvieron alrededor de 500.000 y 50.000 visitantes, respectivamente.



Source link-46

]]>
https://magazineoffice.com/el-sitio-web-de-pornografia-deepfake-mas-grande-ahora-esta-bloqueado-en-el-reino-unido/feed/ 0
Drake enturbia el debate sobre la IA de las ‘Push Ups’ con un deepfake https://magazineoffice.com/drake-enturbia-el-debate-sobre-la-ia-de-las-push-ups-con-un-deepfake/ https://magazineoffice.com/drake-enturbia-el-debate-sobre-la-ia-de-las-push-ups-con-un-deepfake/#respond Wed, 17 Apr 2024 01:56:09 +0000 https://magazineoffice.com/drake-enturbia-el-debate-sobre-la-ia-de-las-push-ups-con-un-deepfake/

Durante el fin de semana, se “filtró” una nueva pista y Los fanáticos han estado debatiendo. si es realmente de Drake o si es el regreso de AI Drake. La canción es una pista de distorsión llamada “Push Ups” que apunta a Kendrick Lamar y Metro Boomin, entre otros. En un momento, le dice a Metro Boomin que «cállese la boca y haga algunos tambores». Suena como Drake, pero si lo escuchamos con atención, hay pequeños fallos aparentes en su voz.

Después de que “Push Ups” se volviera viral, Drake no se atribuyó oficialmente el mérito de la canción, pero hizo varias referencias a ella en sus historias de Instagram, incluyendo publicar un deepfake de IA del productor de rap Metro Boomin reemplazando a Nick Cannon en un clip de la película de 2002 Línea de tambor.

Eso no es realmente una confirmación de que él haya hecho la canción. En todo caso, su uso de un video deepfake casi parece un troll. Tal vez él hizo la canción, y tal vez incluso usó su propio clon de voz de IA para hacerlo. O tal vez no tuvo nada que ver con eso y simplemente se involucra con la publicidad por diversión. Una cosa que sí parece clara es que incluso si los clones de voz lo molestaron el año pasado, está bien usando IA para crear memes.



Source link-37

]]>
https://magazineoffice.com/drake-enturbia-el-debate-sobre-la-ia-de-las-push-ups-con-un-deepfake/feed/ 0
Los casos de pornografía deepfake de celebridades serán investigados por la Junta de Supervisión Meta https://magazineoffice.com/los-casos-de-pornografia-deepfake-de-celebridades-seran-investigados-por-la-junta-de-supervision-meta/ https://magazineoffice.com/los-casos-de-pornografia-deepfake-de-celebridades-seran-investigados-por-la-junta-de-supervision-meta/#respond Tue, 16 Apr 2024 10:06:36 +0000 https://magazineoffice.com/los-casos-de-pornografia-deepfake-de-celebridades-seran-investigados-por-la-junta-de-supervision-meta/

A medida que las herramientas de inteligencia artificial se vuelven cada vez más sofisticadas y accesibles, también lo ha hecho una de sus peores aplicaciones: la pornografía deepfake no consensuada. Si bien gran parte de este contenido está alojado en sitios dedicados, cada vez más llega a las plataformas sociales. Hoy, la Meta Oversight Board anunció que se estaba ocupando de casos que podrían obligar a la empresa a considerar cómo maneja la pornografía deepfake.

La junta, que es un organismo independiente que puede emitir decisiones vinculantes y recomendaciones a Meta, se centrará en dos casos de pornografía deepfake, ambos relacionados con celebridades a quienes se les alteró la imagen para crear contenido explícito. En un caso sobre una celebridad estadounidense anónima, el porno deepfake que representaba a la celebridad fue eliminado de Facebook después de que ya había sido marcado en otra parte de la plataforma. La publicación también se agregó al Media Matching Service Bank de Meta, un sistema automatizado que encuentra y elimina imágenes que ya han sido marcadas como violatorias de las políticas de Meta, para mantenerlas fuera de la plataforma.

En el otro caso, una imagen deepfake de una celebridad india anónima permaneció en Instagram, incluso después de que los usuarios la denunciaran por violar las políticas de Meta sobre pornografía. Según el anuncio, el deepfake de la celebridad india fue eliminado una vez que la junta se hizo cargo del caso.

En ambos casos, las imágenes fueron eliminadas por violar las políticas de Meta sobre intimidación y acoso, y no estaban incluidas en las políticas de Meta sobre pornografía. Meta, sin embargo, prohíbe “contenido que represente, amenace o promueva la violencia sexual, la agresión sexual o la explotación sexual” y no permite pornografía ni anuncios sexualmente explícitos en sus plataformas. En una publicación de blog publicada junto con el anuncio de los casos, Meta dijo que eliminó las publicaciones por violar la parte de “photoshops o dibujos sexualizados despectivos” de su política de intimidación y acoso, y que también “determinó que violaba [Meta’s] política sobre desnudez de adultos y actividad sexual”.

La junta espera utilizar estos casos para examinar las políticas y sistemas de Meta para detectar y eliminar pornografía deepfake no consensuada, según Julie Owono, miembro de la Junta de Supervisión. «Ya puedo decir provisionalmente que el principal problema probablemente sea la detección», afirma. «La detección no es tan perfecta o al menos no tan eficiente como desearíamos».

Meta también ha enfrentado durante mucho tiempo críticas por su enfoque para moderar contenido fuera de Estados Unidos y Europa Occidental. Para este caso, la junta ya expresó su preocupación de que la celebridad estadounidense y la celebridad india recibieran un trato diferente en respuesta a la aparición de sus deepfakes en la plataforma.

“Sabemos que Meta es más rápido y eficaz a la hora de moderar contenido en algunos mercados e idiomas que en otros. Al tomar un caso de Estados Unidos y otro de India, queremos ver si Meta está protegiendo a todas las mujeres a nivel mundial de manera justa”, dice la copresidenta de la Junta de Supervisión, Helle Thorning-Schmidt. «Es fundamental que se aborde este asunto y la junta espera explorar si las políticas y prácticas de cumplimiento de Meta son efectivas para abordar este problema».



Source link-46

]]>
https://magazineoffice.com/los-casos-de-pornografia-deepfake-de-celebridades-seran-investigados-por-la-junta-de-supervision-meta/feed/ 0
El nuevo manual de estrategia de IA deepfake de Meta: más etiquetas, menos eliminaciones https://magazineoffice.com/el-nuevo-manual-de-estrategia-de-ia-deepfake-de-meta-mas-etiquetas-menos-eliminaciones/ https://magazineoffice.com/el-nuevo-manual-de-estrategia-de-ia-deepfake-de-meta-mas-etiquetas-menos-eliminaciones/#respond Sun, 07 Apr 2024 21:08:48 +0000 https://magazineoffice.com/el-nuevo-manual-de-estrategia-de-ia-deepfake-de-meta-mas-etiquetas-menos-eliminaciones/

Meta ha anunciado cambios en sus reglas sobre contenido generado por IA y medios manipulados tras las críticas de su Junta de Supervisión. A partir del próximo mes, dijo la compañía, etiquetará una gama más amplia de dicho contenido, incluso aplicando una insignia «Hecho con IA» a los deepfakes. Se podrá mostrar información contextual adicional cuando el contenido haya sido manipulado de otras formas que supongan un alto riesgo de engañar al público sobre un tema importante.

La medida podría llevar al gigante de las redes sociales a etiquetar más contenidos que tienen el potencial de ser engañosos, algo importante en un año de muchas elecciones en todo el mundo. Sin embargo, para los deepfakes, Meta solo aplicará etiquetas cuando el contenido en cuestión tenga «indicadores de imagen de IA estándar de la industria» o cuando quien subió el video haya revelado su contenido generado por IA.

El contenido generado por IA que quede fuera de esos límites, presumiblemente, escapará sin etiquetar.

También es probable que el cambio de política conduzca a que queden más contenidos generados por IA y medios manipulados en las plataformas de Meta, ya que está cambiando para favorecer un enfoque centrado en «proporcionar transparencia y contexto adicional», como la «mejor manera de abordar este contenido» ( en lugar de eliminar los medios manipulados, dados los riesgos asociados a la libertad de expresión).

Entonces, para los medios generados por IA o manipulados de otro modo en metaplataformas como Facebook e Instagram, el manual parece ser: más etiquetas, menos eliminaciones.

Meta dijo que dejará de eliminar contenido únicamente sobre la base de su actual política de videos manipulados en julio, y agregó en una publicación de blog publicada el viernes que: «Este cronograma le da a la gente tiempo para comprender el proceso de autodivulgación antes de que dejemos de eliminar el subconjunto más pequeño de medios manipulados”.

El cambio de enfoque puede tener como objetivo responder a las crecientes demandas legales sobre Meta en torno a la moderación de contenidos y el riesgo sistémico, como la Ley de Servicios Digitales de la Unión Europea. Desde agosto pasado, la ley de la UE ha aplicado un conjunto de reglas a sus dos principales redes sociales que requieren que Meta camine por una delgada línea entre purgar contenido ilegal, mitigar riesgos sistémicos y proteger la libertad de expresión. El bloque también está aplicando una presión adicional sobre las plataformas antes de las elecciones al Parlamento Europeo de junio de este año, incluso instando a los gigantes tecnológicos a poner marcas de agua en los deepfakes cuando sea técnicamente posible.

Es probable que Meta también esté pensando en las próximas elecciones presidenciales estadounidenses de noviembre.

Críticas de la Junta de Supervisión

La junta asesora de Meta, que el gigante tecnológico financia pero permite que funcione en condiciones de plena competencia, revisa un pequeño porcentaje de sus decisiones de moderación de contenido, pero también puede hacer recomendaciones de políticas. Meta no está obligada a aceptar las sugerencias de la Junta, pero en este caso ha acordado modificar su enfoque.

En una publicación de blog publicada el viernes, Monika Bickert, vicepresidenta de política de contenido de Meta, dijo que la compañía está modificando sus políticas sobre contenido generado por IA y medios manipulados en función de los comentarios de la Junta. «Estamos de acuerdo con el argumento de la Junta de Supervisión de que nuestro enfoque actual es demasiado limitado ya que sólo cubre videos creados o alterados por IA para hacer que una persona parezca decir algo que no dijo», escribió.

En febrero, la Junta de Supervisión instó a Meta a repensar su enfoque hacia el contenido generado por IA después de asumiendo el caso de un video manipulado del presidente Biden que había sido editado para implicar un motivo sexual en un beso platónico que le dio a su nieta.

Mientras que la La junta estuvo de acuerdo con la decisión de Meta de dejar el contenido específico y atacaron su política sobre medios manipulados como “incoherente” – señalando, por ejemplo, que solo se aplica a los videos creados a través de IA, lo que permite que otros contenidos falsos (como videos o audios más básicamente manipulados) se salgan del apuro.

Meta parece haber tenido en cuenta los comentarios críticos.

«En los últimos cuatro años, y particularmente en el último año, la gente ha desarrollado otros tipos de contenido realista generado por IA, como audio y fotografías, y esta tecnología está evolucionando rápidamente», escribió Bickert. “Como señaló la Junta, es igualmente importante abordar la manipulación que muestra a una persona haciendo algo que no hizo.

“La Junta también argumentó que corremos el riesgo innecesario de restringir la libertad de expresión cuando eliminamos medios manipulados que de otro modo no violan nuestras Normas Comunitarias. Recomendó un enfoque ‘menos restrictivo’ para los medios manipulados, como etiquetas con contexto”.

A principios de este año, Meta anunció que estaba trabajando con otros en la industria en el desarrollo de estándares técnicos comunes para identificar contenido de IA, incluidos video y audio. Actualmente se está apoyando en ese esfuerzo para ampliar el etiquetado de medios sintéticos.

«Nuestras etiquetas ‘Hecho con IA’ en videos, audio e imágenes generados por IA se basarán en nuestra detección de señales compartidas por la industria de imágenes de IA o personas que revelan por sí mismas que están cargando contenido generado por IA», dijo Bickert. señalando que la compañía ya aplica etiquetas ‘Imaginado con IA’ a imágenes fotorrealistas creadas usando su propia función Meta AI.

La política ampliada cubrirá “una gama más amplia de contenido además del contenido manipulado que la Junta de Supervisión recomendó etiquetar”, según Bickert.

“Si determinamos que las imágenes, videos o audios creados o alterados digitalmente crean un riesgo particularmente alto de engañar materialmente al público en un asunto de importancia, podemos agregar una etiqueta más destacada para que la gente tenga más información y contexto”, escribió. «Este enfoque general brinda a las personas más información sobre el contenido para que puedan evaluarlo mejor y tener contexto si ven el mismo contenido en otro lugar».

Meta dijo que no eliminará el contenido manipulado, ya sea basado en inteligencia artificial o manipulado de otro modo. a menos que viola otras políticas (como interferencia de votantes, intimidación y acoso, violencia e incitación, u otras cuestiones de Normas Comunitarias). En cambio, como se señaló anteriormente, puede agregar “etiquetas informativas y contexto” en ciertos escenarios de alto interés público.

La publicación del blog de Meta destaca una red de casi 100 verificadores de datos independientes con los que dice estar colaborando para ayudar a identificar riesgos relacionados con el contenido manipulado.

Estas entidades externas continuarán revisando contenido falso y engañoso generado por IA, según Meta. Cuando califican el contenido como “falso o alterado”, Meta dice que responderá aplicando cambios de algoritmo que reducen el alcance del contenido, lo que significa que las cosas aparecerán más abajo en los feeds para que menos personas las vean, además de que Meta colocará una etiqueta superpuesta con información adicional para esos globos oculares que aterrizan en él.

Estos verificadores de datos externos parecen enfrentarse a una carga de trabajo cada vez mayor a medida que prolifera el contenido sintético, impulsado por el auge de las herramientas de inteligencia artificial generativa. Y porque parece que más de este material permanecerá en las plataformas de Meta como resultado de este cambio de política.



Source link-48

]]>
https://magazineoffice.com/el-nuevo-manual-de-estrategia-de-ia-deepfake-de-meta-mas-etiquetas-menos-eliminaciones/feed/ 0
Un generador de desnudos deepfake revela una mirada escalofriante a sus víctimas https://magazineoffice.com/un-generador-de-desnudos-deepfake-revela-una-mirada-escalofriante-a-sus-victimas/ https://magazineoffice.com/un-generador-de-desnudos-deepfake-revela-una-mirada-escalofriante-a-sus-victimas/#respond Mon, 25 Mar 2024 11:40:00 +0000 https://magazineoffice.com/un-generador-de-desnudos-deepfake-revela-una-mirada-escalofriante-a-sus-victimas/

Otra imagen en el sitio mostraba a un grupo de jóvenes adolescentes que parecen estar en la escuela secundaria: un niño tomándose una selfie en lo que parece ser el gimnasio de una escuela con dos niñas, que sonríen y posan para la foto. Los rasgos del niño quedaron oscurecidos por una lente de Snapchat que agrandó tanto sus ojos que cubrieron su rostro.

Los subtítulos de las imágenes aparentemente cargadas indicaron que incluyen imágenes de amigos, compañeros de clase y parejas románticas. «Mi novia», dice una leyenda, que muestra a una mujer joven tomándose una selfie frente a un espejo.

Muchas de las fotos mostraban a personas influyentes que son populares en TikTok, Instagram y otras plataformas de redes sociales. Otras fotos parecían ser capturas de pantalla de Instagram de personas que compartían imágenes de su vida cotidiana. Una imagen mostraba a una joven sonriendo con un postre coronado con una vela de celebración.

Varias imágenes parecían mostrar a personas que eran completamente desconocidas para la persona que tomó la foto. Una imagen tomada desde atrás mostraba a una mujer o una niña que no posaba para una foto, sino que simplemente estaba parada cerca de lo que parece ser una atracción turística.

Algunas de las imágenes de los feeds revisados ​​por WIRED fueron recortadas para eliminar los rostros de mujeres y niñas, mostrando solo su pecho o entrepierna.

Gran audiencia

Durante un período de ocho días de seguimiento del sitio, WIRED vio aparecer cinco nuevas imágenes de mujeres en el feed de Inicio y tres en la página Explorar. Las estadísticas enumeradas en el sitio mostraron que la mayoría de estas imágenes acumularon cientos de «vistas». No está claro si todas las imágenes enviadas al sitio llegan al feed Inicio o Explorar, o cómo se tabulan las vistas. Cada publicación en el feed de Inicio tiene al menos unas pocas docenas de visitas.

Las fotos de celebridades y personas con un gran número de seguidores en Instagram encabezan la lista de imágenes «más vistas» que figuran en el sitio. Las personas más vistas de todos los tiempos en el sitio son la actriz Jenna Ortega con más de 66.000 visitas, la cantautora Taylor Swift con más de 27.000 visitas y una influencer y DJ de Malasia con más de 26.000 visitas.

Swift y Ortega han sido objeto de desnudos falsos antes. La circulación de imágenes falsas de desnudos de Swift en X en enero desencadenó un momento de renovado debate sobre los impactos de los deepfakes y la necesidad de mayores protecciones legales para las víctimas. Este mes, NBC informó que, durante siete meses, Meta había alojado anuncios para una aplicación de deepnude. La aplicación se jactaba de su capacidad para “desnudar” a la gente, utilizando una foto de Jenna Ortega de cuando tenía 16 años.

En Estados Unidos, ninguna ley federal se refiere a la distribución de imágenes de desnudos falsas y no consensuadas. Un puñado de estados han promulgado sus propias leyes. Pero las imágenes de menores desnudos generadas por IA entran en la misma categoría que otro material de abuso sexual infantil, o CSAM, dice Jennifer Newman, directora ejecutiva de la División de Niños Explotados del NCMEC.

«Si no se puede distinguir de la imagen de una víctima viva, de un niño real, entonces para nosotros es material de abuso sexual infantil», dice Newman. «Y lo trataremos como tal mientras procesamos nuestros informes, mientras los entregamos a las autoridades».



Source link-46

]]>
https://magazineoffice.com/un-generador-de-desnudos-deepfake-revela-una-mirada-escalofriante-a-sus-victimas/feed/ 0