Google prohíbe a los anunciantes promocionar servicios de pornografía deepfake


Google ha prohibido durante mucho tiempo los anuncios sexualmente explícitos, pero hasta ahora, la compañía no ha prohibido a los anunciantes promocionar servicios que la gente puede usar para hacer porno deepfake y otras formas de desnudos generados. Eso está a punto de cambiar.

Google actualmente prohíbe a los anunciantes promocionar «contenido sexualmente explícito», que Google define como «texto, imagen, audio o vídeo de actos sexuales gráficos destinados a excitar». El nueva politica ahora también prohíbe la publicidad de servicios que ayuden a los usuarios a crear ese tipo de contenido, ya sea alterando la imagen de una persona o generando una nueva.

El cambio, que entrará en vigor el 30 de mayo, prohíbe “promover contenido sintético que haya sido alterado o generado para que sea sexualmente explícito o contenga desnudez”, como sitios web y aplicaciones que instruyan a las personas sobre cómo crear pornografía deepfake.

«Esta actualización tiene como objetivo prohibir explícitamente los anuncios de servicios que ofrecen crear pornografía deepfake o contenido de desnudos sintéticos», dice el portavoz de Google, Michael Aciman. El borde.

Aciman dice que cualquier anuncio que viole sus políticas será eliminado y agrega que la compañía utiliza una combinación de revisiones humanas y sistemas automatizados para hacer cumplir esas políticas. En 2023, Google eliminó más de 1.800 millones de anuncios por violar sus políticas sobre contenido sexual, según el informe de la compañía. Informe anual de seguridad de los anuncios.

El cambio fue reportado por primera vez por 404 Medios. Como 404 señala que, si bien Google ya prohibió a los anunciantes promocionar contenido sexual explícito, algunas aplicaciones que facilitan la creación de pornografía deepfake han evitado esto anunciándose como no sexuales en los anuncios de Google o en la tienda Google Play. Por ejemplo, una aplicación de intercambio de caras no se anunciaba como sexualmente explícita en la tienda Google Play, pero sí en sitios porno.

La pornografía deepfake no consensuada se ha convertido en un problema constante en los últimos años. Dos estudiantes de secundaria de Florida fueron arrestados en diciembre pasado por supuestamente crear fotografías de desnudos de sus compañeros de clase generadas por IA. Esta misma semana, un hombre de Pittsburgh de 57 años fue condenado a más de 14 años de prisión por poseer material falso de abuso sexual infantil. El año pasado, el FBI emitió un aviso sobre un “aumento” en los esquemas de extorsión que implicaban chantajear a personas con desnudos generados por IA. Si bien muchos modelos de IA hacen que sea difícil, si no imposible, que los usuarios creen desnudos generados por IA, algunos servicios permitir a los usuarios generar contenido sexual.

Es posible que pronto se tomen medidas legislativas sobre la pornografía deepfake. El mes pasado, la Cámara y el Senado introdujo la Ley DEFIANCEque establecería un proceso a través del cual las víctimas de “falsificación digital” podrían demandar a las personas que hagan o distribuyan deepfakes no consensuales de ellos.



Source link-37