{"id":112184,"date":"2022-08-22T07:36:58","date_gmt":"2022-08-22T07:36:58","guid":{"rendered":"https:\/\/magazineoffice.com\/la-ia-de-google-marco-las-cuentas-de-los-padres-por-posibles-abusos-por-fotos-desnudas-de-sus-hijos-enfermos\/"},"modified":"2022-08-22T07:36:59","modified_gmt":"2022-08-22T07:36:59","slug":"la-ia-de-google-marco-las-cuentas-de-los-padres-por-posibles-abusos-por-fotos-desnudas-de-sus-hijos-enfermos","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-ia-de-google-marco-las-cuentas-de-los-padres-por-posibles-abusos-por-fotos-desnudas-de-sus-hijos-enfermos\/","title":{"rendered":"La IA de Google marc\u00f3 las cuentas de los padres por posibles abusos por fotos desnudas de sus hijos enfermos"},"content":{"rendered":"


\n<\/p>\n

\n

Un padre preocupado dice que despu\u00e9s de usar su tel\u00e9fono inteligente Android para tomar fotos de una infecci\u00f3n en la ingle de su hijo peque\u00f1o, Google marc\u00f3 las im\u00e1genes como material de abuso sexual infantil (CSAM), seg\u00fan un informe de Los New York Times<\/em><\/a>. La empresa cerr\u00f3 sus cuentas y present\u00f3 un informe ante el Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC, por sus siglas en ingl\u00e9s) e impuls\u00f3 una investigaci\u00f3n policial, destacando las complicaciones de tratar de diferenciar entre un abuso potencial y una foto inocente una vez que se vuelve parte de la cuenta de un usuario. biblioteca digital, ya sea en su dispositivo personal o en el almacenamiento en la nube.<\/p>\n

Las preocupaciones sobre las consecuencias de desdibujar los l\u00edmites de lo que deber\u00eda considerarse privado se expresaron el a\u00f1o pasado cuando Apple anunci\u00f3 su plan Child Safety<\/a>. Como parte del plan, Apple escanear\u00eda localmente las im\u00e1genes en los dispositivos Apple antes de que se carguen en iCloud y luego comparar\u00eda las im\u00e1genes con la base de datos hash del NCMEC de CSAM conocido. Si se encontraban suficientes coincidencias, un moderador humano revisar\u00eda el contenido y bloquear\u00eda la cuenta del usuario si conten\u00eda MASI. <\/p>\n

\n