Google, Meta, Discord y más se unen para luchar contra el abuso infantil en línea


Un nuevo programa llamado Lantern tiene como objetivo luchar contra la explotación y el abuso sexual infantil en línea (OCSEA) mediante el intercambio de señales multiplataforma entre empresas en línea como Meta y Discord. La Tech Coalition, un grupo de empresas tecnológicas con un objetivo cooperativo para luchar contra la explotación sexual infantil en línea, escribió en el anuncio de hoy que el programa es un intento de evitar que los depredadores eviten la detección trasladando a las víctimas potenciales a otras plataformas.

Lantern sirve como una base de datos central para que las empresas aporten datos y comparen sus propias plataformas. Cuando las empresas ven señales, como direcciones de correo electrónico o nombres de usuario conocidos que infringen la política de OCSEA, hashes de material de abuso sexual infantil (CSAM) o palabras clave CSAM, pueden marcarlas en sus propios sistemas. El anuncio señala que si bien las señales no prueban estrictamente un abuso, ayudan a las empresas a investigar y posiblemente tomar medidas como cerrar una cuenta o informar la actividad a las autoridades.

a: flotar]:text-gray-63 [&>a:hover]:sombra-subrayado-negro oscuro:[&>a:hover]:texto-gris-bd oscuro:[&>a:hover]:sombra-subrayado-gris [&>a]:sombra-subrayado-gris-63 oscuro:[&>a]:texto-gris-bd oscuro:[&>a]:shadow-underline-gray»>Imagen: The Tech Coalition

Meta escribió en una publicación de blog que anunciaba su participación en el programa que, durante la fase piloto de Lantern, utilizó información compartida por uno de los socios del programa, Mega, para eliminar «más de 10,000 perfiles, páginas y cuentas de Instagram de Facebook infractores» e informarlos al Servicio Nacional. Centro para Niños Desaparecidos y Explotados.

El anuncio de la coalición también cita a John Redgrave, jefe de confianza y seguridad de Discord, quien dice: «Discord también ha actuado sobre los puntos de datos compartidos con nosotros a través del programa, que ha ayudado en muchas investigaciones internas».

Las empresas que participan en Lantern hasta ahora incluyen Discord, Google, Mega, Meta, Quora, Roblox, Snap y Twitch. Los miembros de la coalición han estado desarrollando Lantern durante los últimos dos años, y el grupo dice que además de crear soluciones técnicas, tuvo que someter el programa a una «verificación de elegibilidad» y asegurarse de que concuerde con los requisitos legales y reglamentarios y que sea «éticamente compatible». »

Uno de los grandes desafíos de programas como este es asegurarse de que sean efectivos y no presenten nuevos problemas. En un incidente de 2021, la policía investigó a un padre después de Google lo marcó por CSAM sobre fotografías de la infección en la ingle de su hijo. Varios grupos advirtieron que podrían surgir problemas similares con Apple ahora cancelado Función automatizada de escaneo CSAM de la biblioteca de fotos de iCloud.

La coalición supervisará Lantern y dice que es responsable de establecer pautas y reglas claras para el intercambio de datos. Como parte del programa, las empresas deben completar capacitación obligatoria y controles de rutina, y el grupo revisará sus políticas y prácticas periódicamente.



Source link-37