{"id":487830,"date":"2023-02-28T13:35:13","date_gmt":"2023-02-28T13:35:13","guid":{"rendered":"https:\/\/magazineoffice.com\/meta-apuesta-por-un-nuevo-sistema-que-permite-a-los-menores-evitar-que-sus-imagenes-intimas-se-publiquen-en-internet\/"},"modified":"2023-02-28T13:35:15","modified_gmt":"2023-02-28T13:35:15","slug":"meta-apuesta-por-un-nuevo-sistema-que-permite-a-los-menores-evitar-que-sus-imagenes-intimas-se-publiquen-en-internet","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/meta-apuesta-por-un-nuevo-sistema-que-permite-a-los-menores-evitar-que-sus-imagenes-intimas-se-publiquen-en-internet\/","title":{"rendered":"Meta apuesta por un nuevo sistema que permite a los menores evitar que sus im\u00e1genes \u00edntimas se publiquen en Internet"},"content":{"rendered":"


\n<\/p>\n

\n

Meta anunci\u00f3 hoy que est\u00e1 ayudando a financiar una nueva organizaci\u00f3n llamada Take It Down que, con el apoyo del Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC), ayudar\u00e1 a los j\u00f3venes menores de 18 a\u00f1os a evitar que sus im\u00e1genes \u00edntimas se difundan en l\u00ednea. El sistema, disponible como una herramienta en l\u00ednea, funciona de manera similar a una iniciativa anterior de Facebook dise\u00f1ada para evitar la difusi\u00f3n de im\u00e1genes \u00edntimas no consensuadas, a veces denominadas \u00abpornograf\u00eda de venganza\u00bb.<\/p>\n

Junto con el lanzamiento, Meta dice que tambi\u00e9n est\u00e1 implementando nuevas herramientas que dificultar\u00e1n que los \u00abadultos sospechosos\u00bb interact\u00faen con los adolescentes en Instagram.<\/p>\n

La compa\u00f1\u00eda afirma que el nuevo sistema de eliminaci\u00f3n de im\u00e1genes \u00edntimas no consensuadas est\u00e1 dise\u00f1ado para proteger la privacidad del usuario, ya que no requerir\u00e1 que los j\u00f3venes compartan las im\u00e1genes con Meta u otra organizaci\u00f3n. En cambio, el sistema asignar\u00e1 un valor hash \u00fanico, un c\u00f3digo num\u00e9rico, a la imagen o video directamente desde el propio dispositivo del usuario. Este hash luego se enviar\u00e1 al NCMEC, lo que permitir\u00e1 a cualquier empresa encontrar copias de esas im\u00e1genes y eliminarlas autom\u00e1ticamente, adem\u00e1s de evitar que se publiquen en el futuro.<\/p>\n

El sistema original, llamado \u00abpornograf\u00eda de venganza\u00bb hab\u00eda sido criticado durante su prueba piloto por requerir que los usuarios subieran archivos antes de que se creara el hash, ya que los expertos en seguridad insistieron en que no era el m\u00e9todo m\u00e1s responsable para tratar con contenido \u00edntimo. Desde entonces, se ha redise\u00f1ado para crear hashes localmente, se\u00f1alando en la documentaci\u00f3n de ayuda que \u00absus im\u00e1genes nunca saldr\u00e1n de su computadora\u00bb. Ahora, este nuevo sistema Take It Down parece utilizar la misma metodolog\u00eda.<\/p>\n

\u201cTener una imagen \u00edntima personal compartida con otros puede ser aterrador y abrumador, especialmente para los j\u00f3venes\u201d, escribe la directora global de seguridad de Meta, Antigone Davis, en el anuncio. \u201cPuede sentirse a\u00fan peor cuando alguien intenta usar esas im\u00e1genes como una amenaza para im\u00e1genes adicionales, contacto sexual o dinero, un delito conocido como sextorsi\u00f3n\u201d.<\/p>\n

Aunque est\u00e1 dirigido a j\u00f3venes cuyas im\u00e1genes \u00edntimas se comparten de manera no consensuada e ilegal, Meta se\u00f1ala que este sistema tambi\u00e9n puede ser utilizado por adultos, incluidos los padres o tutores del joven, o incluso adultos preocupados por las im\u00e1genes no consensuales tomadas de ellos mismos cuando eran m\u00e1s j\u00f3venes.<\/p>\n

El sitio web Take It Down tambi\u00e9n conecta a las personas con otros recursos del NCMEC, incluidas herramientas para buscar y ver si sus propias im\u00e1genes expl\u00edcitas est\u00e1n disponibles en la web, una CyberTipline para denunciar a cualquier persona que lo amenace con im\u00e1genes u otras formas de explotaci\u00f3n en l\u00ednea, y m\u00e1s.<\/p>\n

Si bien Meta ayud\u00f3 financieramente a respaldar el sistema al proporcionar fondos iniciales y lo utilizar\u00e1 en Facebook e Instagram, otras empresas participantes que se han inscrito para participar en el uso de la nueva tecnolog\u00eda incluyen la red social Yubo, as\u00ed como los sitios para adultos OnlyFans y Pornhub (MinGeek). Notablemente ausentes de la lista est\u00e1n otras grandes empresas tecnol\u00f3gicas como Twitter y Snapchat.<\/p>\n

Desde entonces, se han presentado m\u00e1s de 200 casos. <\/span><\/p>\n

El NCMEC dice que el sistema se lanz\u00f3 en diciembre de 2022, antes de este anuncio p\u00fablico, y desde entonces se han presentado m\u00e1s de 200 casos. Un nuevo anuncio de servicio p\u00fablico creado por la agencia de publicidad VCCP aparecer\u00e1 en las plataformas utilizadas por los ni\u00f1os para garantizar que se vea.<\/p>\n

En nuestras pruebas limitadas, TechCrunch descubri\u00f3 que enviar una imagen a la herramienta devuelve instant\u00e1neamente su valor hash en el navegador, pero sin cargar la imagen en Internet, como se prometi\u00f3. Sin embargo, al hacer que el sistema est\u00e9 disponible como una aplicaci\u00f3n web, los usuarios deben tener en cuenta que cualquier extensi\u00f3n del navegador que tenga acceso a la p\u00e1gina web (como muchos lo hacen) podr\u00eda acceder potencialmente a las im\u00e1genes. Para mayor seguridad, le recomendamos el perfil de invitado si usa Google Chrome para obtener acceso a una ventana limpia de Chrome.<\/p>\n

El sistema podr\u00eda ser una herramienta \u00fatil para las personas que conocen o est\u00e1n en posesi\u00f3n de las im\u00e1genes no consentidas que se comparten, suponiendo que saben que existe esta opci\u00f3n de eliminaci\u00f3n. Si bien las empresas ya estaban legalmente obligadas a denunciar material de abuso sexual infantil, o CSAM, al NCMEC, sus sistemas o procesos para detectar este material se les ha dejado implementar. La ley federal actual no exige si deben buscar este tipo de im\u00e1genes en sus plataformas o c\u00f3mo deben hacerlo, lo que lleva a la propagaci\u00f3n del MASI en todas las plataformas. No es sorprendente que, dados sus 2960 millones de usuarios mensuales solo en Facebook, Meta contribuya en gran medida a este creciente problema. Mientras tanto, los intentos de aprobar una nueva legislaci\u00f3n, como GANARLO, que cerrar\u00eda este vac\u00edo legal, a\u00fan no han tenido \u00e9xito. (Aunque ese proyecto de ley en particular tambi\u00e9n fue controvertido debido a sus posibles consecuencias no deseadas sobre la libertad de expresi\u00f3n y la privacidad del consumidor, seg\u00fan han argumentado los cr\u00edticos).<\/p>\n

Pero la falta de legislaci\u00f3n en esta materia ha obligado a plataformas como Meta a autorregularse en cuanto a si y c\u00f3mo gestionar\u00e1n este tipo de contenidos y otros. Con el Congreso aparentemente incapaz de aprobar nuevas leyes dise\u00f1adas para la era de Internet, las preocupaciones sobre la responsabilidad legal sobre la responsabilidad de las grandes tecnol\u00f3gicas por el contenido de sus plataformas ahora han llegado a la Corte Suprema. All\u00ed, los jueces est\u00e1n revisando la Secci\u00f3n 230 de la Ley de Decencia en las Comunicaciones, que se cre\u00f3 en los primeros d\u00edas de Internet para proteger a los sitios web de ser legalmente responsables por el contenido que publican los usuarios. Los nuevos casos que involucran a Twitter y YouTube de Google, y los algoritmos de recomendaci\u00f3n que los acompa\u00f1an, determinar\u00e1n si esas protecciones de hace d\u00e9cadas deben revertirse o incluso anularse. Aunque no est\u00e1n relacionados con CSAM, son otro ejemplo de c\u00f3mo el sistema general de regulaci\u00f3n de plataformas no funciona en los EE. UU.<\/p>\n

Sin la orientaci\u00f3n de la ley, las plataformas como Meta han estado elaborando sus propias reglas y pol\u00edticas en \u00e1reas relacionadas con la elecci\u00f3n de algoritmos, el dise\u00f1o, la tecnolog\u00eda de recomendaci\u00f3n y la protecci\u00f3n del usuario final.<\/p>\n

\n

Cr\u00e9ditos de imagen:<\/strong> Meta<\/p>\n<\/div>\n

En meses m\u00e1s recientes, Meta ha aumentado sus protecciones para los adolescentes en previsi\u00f3n de las pr\u00f3ximas regulaciones al hacer cosas como configurar nuevas cuentas para adolescentes como privadas de forma predeterminada y aplicar su configuraci\u00f3n m\u00e1s restrictiva, adem\u00e1s de implementar una variedad de herramientas de seguridad y controles parentales. control S. Entre estas actualizaciones se encontraban caracter\u00edsticas espec\u00edficas destinadas a restringir que los usuarios adultos se comuniquen con adolescentes que no conoc\u00edan y advertir a los adolescentes sobre adultos involucrados en comportamientos sospechosos, como enviar una gran cantidad de solicitudes de amistad a usuarios adolescentes, por ejemplo.<\/p>\n

Hoy, Meta dice que los adultos sospechosos ya no podr\u00e1n ver las cuentas de los adolescentes cuando se desplacen por la lista de personas a las que les ha gustado una publicaci\u00f3n o cuando miren la lista de Seguidores o Siguiendo de una cuenta, cortando a\u00fan m\u00e1s su acceso. Y si un adulto sospechoso sigue a un adolescente en Instagram, el adolescente recibir\u00e1 una notificaci\u00f3n que le pedir\u00e1 que revise al seguidor y lo elimine. Tambi\u00e9n pedir\u00e1 a los adolescentes que revisen y restrinjan su configuraci\u00f3n de privacidad y les notificar\u00e1 nuevamente y les pedir\u00e1 que revisen la configuraci\u00f3n cuando alguien comente sus publicaciones, los etiquete o los mencione en una publicaci\u00f3n, o los incluya en Reels Remixes o Guides.<\/p>\n<\/p><\/div>\n


\n
Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Meta anunci\u00f3 hoy que est\u00e1 ayudando a financiar una nueva organizaci\u00f3n llamada Take It Down que, con el apoyo del Centro Nacional para Ni\u00f1os Desaparecidos y Explotados (NCMEC), ayudar\u00e1 a…<\/p>\n","protected":false},"author":1,"featured_media":217328,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[549,5463,666,1637,12643,8,5152,9842,104,1136,110,27206,4900,663],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/487830"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=487830"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/487830\/revisions"}],"predecessor-version":[{"id":487831,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/487830\/revisions\/487831"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/217328"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=487830"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=487830"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=487830"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}