Apple detalla las razones para abandonar la herramienta de escaneo CSAM, surge más controversia


En diciembre, Apple dijo que estaba finalizando un esfuerzo por diseñar una herramienta de escaneo de fotografías de iCloud que preservara la privacidad para detectar material de abuso sexual infantil (CSAM) en la plataforma. Anunciado originalmente en agosto de 2021, el proyecto había sido controvertido desde sus inicios. Apple lo detuvo por primera vez en septiembre en respuesta a las preocupaciones de investigadores y grupos de derechos digitales de que inevitablemente se abusaría y explotaría una herramienta de este tipo para comprometer la privacidad y seguridad de todos los usuarios de iCloud. Esta semana, un nuevo grupo de seguridad infantil conocido como Heat Initiative le dijo a Apple que está organizando una campaña para exigir que la compañía “detecte, informe y elimine” material de abuso sexual infantil de iCloud y ofrezca más herramientas para que los usuarios denuncien CSAM al compañía.

Hoy, en un movimiento poco común, Apple respondió a Heat Initiative, describiendo sus razones para abandonar el desarrollo de su función de escaneo CSAM de iCloud y, en cambio, centrarse en un conjunto de herramientas y recursos en el dispositivo para los usuarios conocidos colectivamente como funciones de “Seguridad de las Comunicaciones”. La respuesta de la compañía a la Iniciativa Heat, que Apple compartió con WIRED esta mañana, ofrece una mirada poco común no solo a su justificación para girar hacia la Seguridad de las Comunicaciones, sino a sus puntos de vista más amplios sobre la creación de mecanismos para eludir las protecciones de privacidad de los usuarios, como el cifrado, para monitorear datos. Esta postura es relevante para el debate sobre el cifrado en términos más amplios, especialmente ahora que países como el Reino Unido están considerando aprobar leyes que requerirían que las empresas de tecnología puedan acceder a los datos de los usuarios para cumplir con las solicitudes de las fuerzas del orden.

«El material de abuso sexual infantil es aborrecible y estamos comprometidos a romper la cadena de coerción e influencia que hace que los niños sean susceptibles a él», escribió Erik Neuenschwander, director de privacidad del usuario y seguridad infantil de Apple, en la respuesta de la compañía a Heat Initiative. Sin embargo, añadió que después de colaborar con una serie de investigadores de privacidad y seguridad, grupos de derechos digitales y defensores de la seguridad infantil, la empresa concluyó que no podía continuar con el desarrollo de un mecanismo de escaneo de CSAM, ni siquiera uno construido específicamente para preservar la privacidad. .

«Escanear los datos de iCloud almacenados de forma privada de cada usuario crearía nuevos vectores de amenaza para que los ladrones de datos los encuentren y exploten», escribió Neuenschwander. «También inyectaría la posibilidad de una pendiente resbaladiza de consecuencias no deseadas. La búsqueda de un tipo de contenido, por ejemplo, abre la puerta a la vigilancia masiva y podría crear el deseo de buscar otros sistemas de mensajería cifrada en todos los tipos de contenido”.

WIRED no pudo comunicarse de inmediato con Heat Initiative para comentar sobre la respuesta de Apple. El grupo está dirigido por Sarah Gardner, ex vicepresidenta de asuntos externos de la organización sin fines de lucro Thorn, que trabaja para utilizar nuevas tecnologías para combatir la explotación infantil en línea y el tráfico sexual. En 2021, Thorn elogió el plan de Apple de desarrollar una función de escaneo CSAM de iCloud. Gardner dijo en un correo electrónico al director ejecutivo Tim Cook el miércoles, que Apple también compartió con WIRED, que Heat Initiative encontró que la decisión de Apple de eliminar la función era «decepcionante».

«Creemos firmemente que la solución que usted presentó no sólo posicionó a Apple como líder mundial en privacidad del usuario, sino que también prometió erradicar millones de imágenes y videos de abuso sexual infantil de iCloud», escribió Gardner a Cook. “Soy parte de una iniciativa en desarrollo que involucra a expertos y defensores de la seguridad infantil que tienen la intención de dialogar con usted y su empresa, Apple, sobre su continuo retraso en la implementación de tecnología crítica… El abuso sexual infantil es un tema difícil del que nadie quiere hablar. sobre, razón por la cual es silenciado y dejado atrás. Estamos aquí para asegurarnos de que eso no suceda”.

Apple sostiene que, en última instancia, ni siquiera su propio diseño bien intencionado podría salvaguardarse adecuadamente en la práctica, y que las detecciones de desnudez en el dispositivo para funciones como Mensajes, FaceTime, AirDrop y el selector de fotos son alternativas más seguras. Apple también ha comenzado a ofrecer una interfaz de programación de aplicaciones (API) para sus funciones de seguridad en las comunicaciones para que los desarrolladores externos puedan incorporarlas en sus aplicaciones. Apple dice que la plataforma de comunicación Discord está integrando las funciones y que los fabricantes de aplicaciones en general se han mostrado entusiasmados con su adopción.

«Decidimos no continuar con la propuesta de hace unos años de un enfoque híbrido cliente-servidor para la detección de CSAM para fotos de iCloud», escribió Neuenschwander a Heat Initiative. «Concluimos que no era prácticamente posible implementarlo sin poner en peligro la seguridad y privacidad de nuestros usuarios».

Ante la solicitud de Heat Initiative de que Apple cree un mecanismo de denuncia de CSAM para los usuarios, la compañía le dijo a WIRED que su objetivo es conectar a sus usuarios vulnerables o victimizados directamente con recursos locales y fuerzas del orden en su región que puedan ayudarlos en lugar de que Apple se posicione como un intermediario para procesar informes. La empresa afirma que ofrecer este servicio intermediario puede tener sentido para plataformas interactivas como las redes sociales.

Sin embargo, la necesidad de proteger a los niños del abuso sexual en línea es urgente y, a medida que estas preocupaciones se cruzan con el debate más amplio sobre el cifrado, se seguirá poniendo a prueba la determinación de Apple de negarse a implementar el escaneo de datos.

Lea el intercambio completo entre Heat Initiative y Apple en WIRED. WIRED ha redactado información personal confidencial para la privacidad de remitentes y destinatarios.

Esta historia apareció originalmente en cableado.com.



Source link-49