Meta apuesta por un nuevo sistema que permite a los menores evitar que sus imágenes íntimas se publiquen en Internet


Meta anunció hoy que está ayudando a financiar una nueva organización llamada Take It Down que, con el apoyo del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), ayudará a los jóvenes menores de 18 años a evitar que sus imágenes íntimas se difundan en línea. El sistema, disponible como una herramienta en línea, funciona de manera similar a una iniciativa anterior de Facebook diseñada para evitar la difusión de imágenes íntimas no consensuadas, a veces denominadas «pornografía de venganza».

Junto con el lanzamiento, Meta dice que también está implementando nuevas herramientas que dificultarán que los «adultos sospechosos» interactúen con los adolescentes en Instagram.

La compañía afirma que el nuevo sistema de eliminación de imágenes íntimas no consensuadas está diseñado para proteger la privacidad del usuario, ya que no requerirá que los jóvenes compartan las imágenes con Meta u otra organización. En cambio, el sistema asignará un valor hash único, un código numérico, a la imagen o video directamente desde el propio dispositivo del usuario. Este hash luego se enviará al NCMEC, lo que permitirá a cualquier empresa encontrar copias de esas imágenes y eliminarlas automáticamente, además de evitar que se publiquen en el futuro.

El sistema original, llamado «pornografía de venganza» había sido criticado durante su prueba piloto por requerir que los usuarios subieran archivos antes de que se creara el hash, ya que los expertos en seguridad insistieron en que no era el método más responsable para tratar con contenido íntimo. Desde entonces, se ha rediseñado para crear hashes localmente, señalando en la documentación de ayuda que «sus imágenes nunca saldrán de su computadora». Ahora, este nuevo sistema Take It Down parece utilizar la misma metodología.

“Tener una imagen íntima personal compartida con otros puede ser aterrador y abrumador, especialmente para los jóvenes”, escribe la directora global de seguridad de Meta, Antigone Davis, en el anuncio. “Puede sentirse aún peor cuando alguien intenta usar esas imágenes como una amenaza para imágenes adicionales, contacto sexual o dinero, un delito conocido como sextorsión”.

Aunque está dirigido a jóvenes cuyas imágenes íntimas se comparten de manera no consensuada e ilegal, Meta señala que este sistema también puede ser utilizado por adultos, incluidos los padres o tutores del joven, o incluso adultos preocupados por las imágenes no consensuales tomadas de ellos mismos cuando eran más jóvenes.

El sitio web Take It Down también conecta a las personas con otros recursos del NCMEC, incluidas herramientas para buscar y ver si sus propias imágenes explícitas están disponibles en la web, una CyberTipline para denunciar a cualquier persona que lo amenace con imágenes u otras formas de explotación en línea, y más.

Si bien Meta ayudó financieramente a respaldar el sistema al proporcionar fondos iniciales y lo utilizará en Facebook e Instagram, otras empresas participantes que se han inscrito para participar en el uso de la nueva tecnología incluyen la red social Yubo, así como los sitios para adultos OnlyFans y Pornhub (MinGeek). Notablemente ausentes de la lista están otras grandes empresas tecnológicas como Twitter y Snapchat.

Desde entonces, se han presentado más de 200 casos.

El NCMEC dice que el sistema se lanzó en diciembre de 2022, antes de este anuncio público, y desde entonces se han presentado más de 200 casos. Un nuevo anuncio de servicio público creado por la agencia de publicidad VCCP aparecerá en las plataformas utilizadas por los niños para garantizar que se vea.

En nuestras pruebas limitadas, TechCrunch descubrió que enviar una imagen a la herramienta devuelve instantáneamente su valor hash en el navegador, pero sin cargar la imagen en Internet, como se prometió. Sin embargo, al hacer que el sistema esté disponible como una aplicación web, los usuarios deben tener en cuenta que cualquier extensión del navegador que tenga acceso a la página web (como muchos lo hacen) podría acceder potencialmente a las imágenes. Para mayor seguridad, le recomendamos el perfil de invitado si usa Google Chrome para obtener acceso a una ventana limpia de Chrome.

El sistema podría ser una herramienta útil para las personas que conocen o están en posesión de las imágenes no consentidas que se comparten, suponiendo que saben que existe esta opción de eliminación. Si bien las empresas ya estaban legalmente obligadas a denunciar material de abuso sexual infantil, o CSAM, al NCMEC, sus sistemas o procesos para detectar este material se les ha dejado implementar. La ley federal actual no exige si deben buscar este tipo de imágenes en sus plataformas o cómo deben hacerlo, lo que lleva a la propagación del MASI en todas las plataformas. No es sorprendente que, dados sus 2960 millones de usuarios mensuales solo en Facebook, Meta contribuya en gran medida a este creciente problema. Mientras tanto, los intentos de aprobar una nueva legislación, como GANARLO, que cerraría este vacío legal, aún no han tenido éxito. (Aunque ese proyecto de ley en particular también fue controvertido debido a sus posibles consecuencias no deseadas sobre la libertad de expresión y la privacidad del consumidor, según han argumentado los críticos).

Pero la falta de legislación en esta materia ha obligado a plataformas como Meta a autorregularse en cuanto a si y cómo gestionarán este tipo de contenidos y otros. Con el Congreso aparentemente incapaz de aprobar nuevas leyes diseñadas para la era de Internet, las preocupaciones sobre la responsabilidad legal sobre la responsabilidad de las grandes tecnológicas por el contenido de sus plataformas ahora han llegado a la Corte Suprema. Allí, los jueces están revisando la Sección 230 de la Ley de Decencia en las Comunicaciones, que se creó en los primeros días de Internet para proteger a los sitios web de ser legalmente responsables por el contenido que publican los usuarios. Los nuevos casos que involucran a Twitter y YouTube de Google, y los algoritmos de recomendación que los acompañan, determinarán si esas protecciones de hace décadas deben revertirse o incluso anularse. Aunque no están relacionados con CSAM, son otro ejemplo de cómo el sistema general de regulación de plataformas no funciona en los EE. UU.

Sin la orientación de la ley, las plataformas como Meta han estado elaborando sus propias reglas y políticas en áreas relacionadas con la elección de algoritmos, el diseño, la tecnología de recomendación y la protección del usuario final.

Créditos de imagen: Meta

En meses más recientes, Meta ha aumentado sus protecciones para los adolescentes en previsión de las próximas regulaciones al hacer cosas como configurar nuevas cuentas para adolescentes como privadas de forma predeterminada y aplicar su configuración más restrictiva, además de implementar una variedad de herramientas de seguridad y controles parentales. control S. Entre estas actualizaciones se encontraban características específicas destinadas a restringir que los usuarios adultos se comuniquen con adolescentes que no conocían y advertir a los adolescentes sobre adultos involucrados en comportamientos sospechosos, como enviar una gran cantidad de solicitudes de amistad a usuarios adolescentes, por ejemplo.

Hoy, Meta dice que los adultos sospechosos ya no podrán ver las cuentas de los adolescentes cuando se desplacen por la lista de personas a las que les ha gustado una publicación o cuando miren la lista de Seguidores o Siguiendo de una cuenta, cortando aún más su acceso. Y si un adulto sospechoso sigue a un adolescente en Instagram, el adolescente recibirá una notificación que le pedirá que revise al seguidor y lo elimine. También pedirá a los adolescentes que revisen y restrinjan su configuración de privacidad y les notificará nuevamente y les pedirá que revisen la configuración cuando alguien comente sus publicaciones, los etiquete o los mencione en una publicación, o los incluya en Reels Remixes o Guides.



Source link-48