\n<\/aside>\n<\/p>\n
Los motores de b\u00fasqueda populares como Google y Bing est\u00e1n facilitando la aparici\u00f3n de pornograf\u00eda deepfake no consensuada coloc\u00e1ndola en la parte superior de los resultados de b\u00fasqueda, inform\u00f3 NBC News el jueves.<\/p>\n
Estos controvertidos deepfakes superponen rostros de mujeres reales, a menudo celebridades, a los cuerpos de artistas adultos para que parezcan estar practicando sexo real. Gracias en parte a los avances en la IA generativa, ahora existe un floreciente mercado negro de pornograf\u00eda deepfake que podr\u00eda descubrirse mediante una b\u00fasqueda en Google, inform\u00f3 anteriormente NBC News.<\/p>\n
NBC News descubri\u00f3 el problema desactivando la b\u00fasqueda segura y luego combinando los nombres de 36 celebridades femeninas con t\u00e9rminos de b\u00fasqueda obvios como \u00abdeepfakes\u00bb, \u00abdeepfake porno\u00bb y \u00abdesnudos falsos\u00bb. Bing gener\u00f3 enlaces a v\u00eddeos deepfake en los primeros resultados 35 veces, mientras que Google lo hizo 34 veces. Bing tambi\u00e9n public\u00f3 \u00abfotos falsas desnudas de ex actrices adolescentes de Disney Channel\u00bb utilizando im\u00e1genes en las que los actores parecen ser menores de edad.<\/p>\n
Un portavoz de Google dijo a NBC que el gigante tecnol\u00f3gico comprende \u00ablo angustioso que puede ser este contenido para las personas afectadas por \u00e9l\u00bb y est\u00e1 \u00abtrabajando activamente para brindar m\u00e1s protecci\u00f3n a la B\u00fasqueda\u00bb.<\/p>\n
Seg\u00fan el portavoz de Google, este contenido controvertido aparece en ocasiones porque \u00abGoogle indexa el contenido que existe en la web\u00bb, como \u00abcualquier motor de b\u00fasqueda\u00bb. Pero si bien las b\u00fasquedas que utilizan t\u00e9rminos como \u00abdeepfake\u00bb pueden generar resultados consistentes, Google \u00abactivamente\u00bb dise\u00f1a \u00absistemas de clasificaci\u00f3n para evitar sorprender a las personas con contenido expl\u00edcito o da\u00f1ino inesperado que no est\u00e1n buscando\u00bb, dijo el portavoz.<\/p>\n
Actualmente, la \u00fanica forma de eliminar la pornograf\u00eda deepfake no consensuada de los resultados de b\u00fasqueda de Google es que la v\u00edctima env\u00ede un formulario personalmente o a trav\u00e9s de un \u00abrepresentante autorizado\u00bb. Ese formulario requiere que las v\u00edctimas cumplan tres requisitos: demostrar que est\u00e1n \u00abrepresentadas de manera identificable\u00bb en el deepfake; las \u00abim\u00e1genes en cuesti\u00f3n son falsas y las representan falsamente\u00bb como \u00abdesnudas o en una situaci\u00f3n sexualmente expl\u00edcita\u00bb; y las im\u00e1genes se distribuyeron sin su consentimiento.<\/p>\n
Si bien esto brinda a las v\u00edctimas alg\u00fan curso de acci\u00f3n para eliminar contenido, a los expertos les preocupa que los motores de b\u00fasqueda deban hacer m\u00e1s para reducir efectivamente la prevalencia de pornograf\u00eda deepfake disponible en l\u00ednea, que en este momento est\u00e1 aumentando a un ritmo r\u00e1pido.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nEste problema emergente afecta cada vez m\u00e1s a la gente promedio e incluso a los ni\u00f1os, no s\u00f3lo a las celebridades. En junio pasado, expertos en seguridad infantil descubrieron miles de im\u00e1genes realistas pero falsas de IA sobre sexo infantil que se comercializaban en l\u00ednea, casi al mismo tiempo que el FBI advirti\u00f3 que el uso de deepfakes generados por IA en esquemas de sextorsi\u00f3n estaba aumentando.<\/p>\n
Y la pornograf\u00eda deepfake no consensuada no s\u00f3lo se comercializa en los mercados negros en l\u00ednea. En noviembre, la polic\u00eda de Nueva Jersey inici\u00f3 una investigaci\u00f3n despu\u00e9s de que adolescentes de secundaria utilizaran generadores de im\u00e1genes de inteligencia artificial para crear y compartir fotograf\u00edas falsas de desnudos de compa\u00f1eras de clase.<\/p>\n
Dado que las empresas de tecnolog\u00eda parecen tardar en detener el aumento de los deepfakes, algunos estados han aprobado leyes que criminalizan la distribuci\u00f3n de pornograf\u00eda deepfake. En julio pasado, Virginia enmend\u00f3 su ley existente que penaliza la pornograf\u00eda de venganza para incluir cualquier \u00abimagen fija o videogr\u00e1fica creada falsamente\u00bb. En octubre, Nueva York aprob\u00f3 una ley centrada espec\u00edficamente en prohibir la pornograf\u00eda deepfake, imponiendo una multa de 1.000 d\u00f3lares y hasta un a\u00f1o de c\u00e1rcel a los infractores. El Congreso tambi\u00e9n ha introducido una legislaci\u00f3n que crea sanciones penales por la difusi\u00f3n de pornograf\u00eda deepfake.<\/p>\n
Aunque Google le dijo a NBC News que sus funciones de b\u00fasqueda \u00abno permiten medios manipulados o contenido sexualmente expl\u00edcito\u00bb, la investigaci\u00f3n del medio aparentemente encontr\u00f3 lo contrario. NBC News tambi\u00e9n se\u00f1al\u00f3 que la tienda de aplicaciones Play de Google alberga una aplicaci\u00f3n que anteriormente se comercializaba para crear pornograf\u00eda deepfake, a pesar de prohibir \u00abaplicaciones determinadas a promover o perpetuar im\u00e1genes, videos y\/o textos demostrablemente enga\u00f1osos o enga\u00f1osos\u00bb. Esto sugiere que los esfuerzos de remediaci\u00f3n de Google que bloquean im\u00e1genes enga\u00f1osas pueden ser inconsistentes.<\/p>\n
Google le dijo a Ars que pronto fortalecer\u00e1 sus pol\u00edticas contra aplicaciones que presenten contenido restringido generado por IA en Play Store. Una pol\u00edtica de IA generativa que entrar\u00e1 en vigor el 31 de enero exigir\u00e1 que todas las aplicaciones cumplan con las pol\u00edticas de los desarrolladores que proh\u00edben el contenido restringido generado por IA, incluido el contenido enga\u00f1oso y el contenido que facilite la explotaci\u00f3n o el abuso de ni\u00f1os.<\/p>\n
Los expertos dijeron a NBC News que \u00abla falta de vigilancia proactiva de Google en busca de abusos ha convertido a este y a otros motores de b\u00fasqueda en plataformas \u00fatiles para las personas que buscan participar en campa\u00f1as de acoso deepfake\u00bb.<\/p>\n
Google est\u00e1 actualmente \u00aben el proceso de crear salvaguardas m\u00e1s amplias, con un enfoque particular en eliminar la necesidad de que las v\u00edctimas conocidas soliciten la eliminaci\u00f3n de contenido una por una\u00bb, dijo el portavoz de Google a NBC News.<\/p>\n
El portavoz de Microsoft le dijo a Ars que Microsoft actualiz\u00f3 su proceso para informar inquietudes con las b\u00fasquedas en Bing para incluir im\u00e1genes \u00edntimas no consensuales (NCII) utilizadas en \u00abdeepfakes\u00bb en agosto pasado porque se hab\u00eda convertido en una \u00abpreocupaci\u00f3n importante\u00bb. Al igual que Google, Microsoft permite a las v\u00edctimas denunciar los deepfakes del NCII enviando un formulario web para solicitar la eliminaci\u00f3n de los resultados de b\u00fasqueda, entendiendo que cualquier intercambio de NCII es \u00abuna grave violaci\u00f3n de la privacidad y la dignidad personal con efectos devastadores para las v\u00edctimas\u00bb.<\/p>\n
En el pasado, el presidente de Microsoft, Brad Smith, ha dicho que entre todos los peligros que plantea la IA, los deepfakes le preocupan m\u00e1s, pero los deepfakes que alimentan \u00aboperaciones de influencia cibern\u00e9tica extranjera\u00bb aparentemente le preocupan m\u00e1s que la pornograf\u00eda deepfake.<\/p>\n
Esta historia se actualiz\u00f3 el 11 de enero para incluir informaci\u00f3n sobre la pol\u00edtica de contenido generado por IA de Google y el 12 de enero para incluir informaci\u00f3n de Microsoft.<\/em><\/p>\n<\/p><\/div>\n \nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Los motores de b\u00fasqueda populares como Google y Bing est\u00e1n facilitando la aparici\u00f3n de pornograf\u00eda deepfake no consensuada coloc\u00e1ndola en la parte superior de los resultados de b\u00fasqueda, inform\u00f3 NBC…<\/p>\n","protected":false},"author":1,"featured_media":962534,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[37033,4544,4709,19844,502,3672,4703,8,10103,5741,1505],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/962533"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=962533"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/962533\/revisions"}],"predecessor-version":[{"id":962535,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/962533\/revisions\/962535"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/962534"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=962533"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=962533"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=962533"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}