Un chatbot de Pornhub impidió que millones de personas buscaran vídeos de abuso infantil


Durante los últimos dos años, millones de personas que buscaban vídeos de abuso infantil en el sitio web de Pornhub en el Reino Unido se han visto interrumpidas. Cada una de los 4,4 millones de veces que alguien escribió palabras o frases relacionadas con el abuso, un mensaje de advertencia bloqueó la página, diciendo que ese tipo de contenido es ilegal. Y en la mitad de los casos, un chatbot también ha indicado a las personas dónde pueden buscar ayuda.

Pornhub implementó el mensaje de advertencia y el chatbot como parte de un programa de prueba, realizado con dos organizaciones de protección infantil con sede en el Reino Unido, para descubrir si se podía disuadir a las personas de buscar material ilegal con pequeñas intervenciones. Un nuevo informe que analiza la prueba, compartido exclusivamente con WIRED, dice que las ventanas emergentes llevaron a una disminución en la cantidad de búsquedas de material de abuso sexual infantil (CSAM) y vieron a decenas de personas buscar apoyo para su comportamiento.

«El número real de búsquedas es bastante alarmante», dice Joel Scanlan, profesor titular de la Universidad de Tasmania, quien dirigió la evaluación de reThink Chatbot. Durante la prueba de varios años, hubo 4.400.960 advertencias en respuesta a búsquedas vinculadas a CSAM en el sitio web de Pornhub en el Reino Unido; el 99 por ciento de todas las búsquedas durante la prueba no generaron una advertencia. «Hay una reducción significativa durante la duración de la intervención en el número de búsquedas», dice Scanlan. «Así que los mensajes de disuasión sí funcionan».

Cada año se encuentran y eliminan de la web millones de imágenes y vídeos de CSAM. Se comparten en las redes sociales, se comercializan en chats privados, se venden en la web oscura o, en algunos casos, se suben a sitios web de pornografía legal. Las empresas tecnológicas y las empresas pornográficas no permiten contenido ilegal en sus plataformas, aunque lo eliminan con diferentes niveles de efectividad. Pornhub eliminó alrededor de 10 millones de videos en 2020 en un intento por erradicar el material de abuso infantil y otro contenido problemático de su sitio web luego de una denuncia condenatoria. New York Times informe.

Pornhub, propiedad de la empresa matriz Aylo (anteriormente MindGeek), utiliza una lista de 34.000 términos prohibidos, en varios idiomas y con millones de combinaciones, para bloquear las búsquedas de material de abuso infantil, afirma un portavoz de la empresa. Es una forma en que Pornhub intenta combatir el material ilegal, dice el portavoz, y es parte de los esfuerzos de la compañía dirigidos a la seguridad de los usuarios, después de años de acusaciones de que ha alojado videos de explotación infantil y no consentidos. Cuando las personas en el Reino Unido buscaron cualquiera de los términos en la lista de Pornhub, aparecieron el mensaje de advertencia y el chatbot.

El chatbot fue diseñado y creado por Internet Watch Foundation (IWF), una organización sin fines de lucro que elimina el CSAM de la web, y la Lucy Faithfull Foundation, una organización benéfica que trabaja para prevenir el abuso sexual infantil. Apareció junto a los mensajes de advertencia un total de 2,8 millones de veces. La prueba contó el número de sesiones en Pornhub, lo que podría significar que las personas se cuentan varias veces, y no buscó identificar a las personas. El informe dice que hubo una “disminución significativa” en las búsquedas de CSAM en Pornhub y que al menos “en parte” el chatbot y los mensajes de advertencia parecen haber influido.



Source link-46