Apple amplía su detección de desnudos en el dispositivo para combatir el abuso sexual infantil


En diciembre, Apple anunció que estaba eliminando una controvertida herramienta de escaneo de fotos de iCloud que la compañía había diseñado para combatir el material de abuso sexual infantil (CSAM) en lo que dijo que era una forma de preservar la privacidad. Apple luego dijo que sus esfuerzos contra el CSAM se centrarían en cambio en sus funciones de «Seguridad de la comunicación» para niños, anunciadas inicialmente en agosto de 2021. Y en la Conferencia mundial de desarrolladores de la compañía en Cupertino hoy, Apple presentó expansiones al mecanismo, incluida una función adicional. adaptado a los adultos.

Communication Safety escanea los mensajes localmente en los dispositivos de los usuarios jóvenes para marcar el contenido que los niños reciben o envían en mensajes en iOS que contienen desnudez. Apple anunció hoy que la función también se está expandiendo a los mensajes de video FaceTime, los carteles de contacto en la aplicación Teléfono, la herramienta de selección de fotos donde los usuarios eligen fotos o videos para enviar, y AirDrop. El procesamiento en el dispositivo de la función significa que Apple nunca ve el contenido marcado, pero a partir de este otoño, Communication Safety se activará de manera predeterminada para todas las cuentas de niños (niños menores de 13 años) en un plan Family Sharing. Los padres pueden optar por desactivar la función si así lo desean.

“Communication Safety es una característica en la que realmente queremos darle al niño un momento para hacer una pausa y, con suerte, ser interrumpido de lo que es efectivamente una conversación de preparación, o al menos podría serlo”, dice Erik Neuenschwander, jefe de privacidad de usuarios de Apple. “Así que está destinado a ser de alta fricción. Se supone que hay una respuesta que creemos que probablemente sea correcta en la situación de ese niño, que es no seguir adelante, y realmente queremos asegurarnos de que reciban educación”.

Apple dijo en diciembre que planeaba poner a disposición una interfaz de programación de aplicaciones (API) para que los desarrolladores externos pudieran integrar fácilmente Communication Safety en sus aplicaciones y usarla para detectar material de abuso sexual infantil, o CSAM. La API, conocida como marco de análisis de contenido confidencial, ya está disponible para los desarrolladores. Plataformas como Discord ya han dicho que planean incorporarlo en sus aplicaciones iOS.

Un aviso de seguridad de la comunicación para la cuenta de un niño.

Fotografía: manzana



Source link-46