{"id":1120881,"date":"2024-05-08T11:52:01","date_gmt":"2024-05-08T11:52:01","guid":{"rendered":"https:\/\/magazineoffice.com\/el-reino-unido-detalla-los-requisitos-para-proteger-a-los-ninos-de-los-algoritmos-toxicos\/"},"modified":"2024-05-08T11:52:04","modified_gmt":"2024-05-08T11:52:04","slug":"el-reino-unido-detalla-los-requisitos-para-proteger-a-los-ninos-de-los-algoritmos-toxicos","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/el-reino-unido-detalla-los-requisitos-para-proteger-a-los-ninos-de-los-algoritmos-toxicos\/","title":{"rendered":"El Reino Unido detalla los requisitos para proteger a los ni\u00f1os de los ‘algoritmos t\u00f3xicos’"},"content":{"rendered":"


\n<\/p>\n

\n

El Reino Unido est\u00e1 pidiendo a las empresas de b\u00fasqueda y redes sociales que \u201cdominen los algoritmos t\u00f3xicos\u201d que recomiendan contenido da\u00f1ino para los ni\u00f1os, o se arriesgan a recibir multas por miles de millones. El mi\u00e9rcoles<\/a>el regulador de medios del Reino Unido, Ofcom, describi\u00f3 m\u00e1s de 40 requisitos propuestos para los gigantes tecnol\u00f3gicos en virtud de su Reglas de la Ley de seguridad en l\u00ednea<\/a>incluidos controles de edad s\u00f3lidos y moderaci\u00f3n de contenido que tienen como objetivo proteger mejor a los menores en l\u00ednea de conformidad con las pr\u00f3ximas leyes de seguridad digital. <\/p>\n<\/div>\n

\n

\u00abNuestros c\u00f3digos propuestos asignan firmemente la responsabilidad de mantener a los ni\u00f1os m\u00e1s seguros en las empresas de tecnolog\u00eda\u00bb, dijo la directora ejecutiva de Ofcom, Melanie Dawes. \u00abTendr\u00e1n que dominar algoritmos agresivos que env\u00edan contenido da\u00f1ino a los ni\u00f1os en sus feeds personalizados e introducir controles de edad para que los ni\u00f1os obtengan una experiencia adecuada para su edad\u00bb.<\/p>\n<\/div>\n

\n

Espec\u00edficamente, Ofcom quiere evitar que los ni\u00f1os encuentren contenido relacionado con trastornos alimentarios, autolesiones, suicidio, pornograf\u00eda y cualquier material considerado violento, odioso o abusivo. Las plataformas tambi\u00e9n deben proteger a los ni\u00f1os del acoso en l\u00ednea y de promociones para desaf\u00edos peligrosos en l\u00ednea, y permitirles dejar comentarios negativos sobre el contenido que no quieren ver para que puedan seleccionar mejor sus feeds. <\/p>\n<\/div>\n

\n

En pocas palabras: las plataformas pronto tendr\u00e1n que bloquear el contenido considerado da\u00f1ino en el Reino Unido, incluso si eso significa \u00abimpedir que los ni\u00f1os accedan a todo el sitio o la aplicaci\u00f3n\u00bb, dice Ofcom.<\/p>\n<\/div>\n

\n

La Ley de Seguridad en L\u00ednea permite a Ofcom imponer multas de hasta \u00a318 millones (alrededor de $22,4 millones) o el 10 por ciento de los ingresos globales de una empresa, la cifra que sea mayor. Eso significa que grandes empresas como Meta, Google y TikTok corren el riesgo de pagar sumas sustanciales. Ofcom advierte que las empresas que no cumplan pueden \u00abesperar enfrentarse a medidas coercitivas\u00bb.<\/p>\n<\/div>\n

\n

Las empresas tienen hasta el 17 de julio para responder a las propuestas de Ofcom antes de que los c\u00f3digos se presenten al parlamento. El regulador lanzar\u00e1 una versi\u00f3n final en la primavera de 2025, despu\u00e9s de lo cual las plataformas tendr\u00e1n tres meses para cumplir.<\/p>\n<\/div>\n


\n
Source link-37 <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

El Reino Unido est\u00e1 pidiendo a las empresas de b\u00fasqueda y redes sociales que \u201cdominen los algoritmos t\u00f3xicos\u201d que recomiendan contenido da\u00f1ino para los ni\u00f1os, o se arriesgan a recibir…<\/p>\n","protected":false},"author":1,"featured_media":877026,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[25336,4379,8,1188,107,3258,2678,7159,11944,2679],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1120881"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1120881"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1120881\/revisions"}],"predecessor-version":[{"id":1120882,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1120881\/revisions\/1120882"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/877026"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1120881"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1120881"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1120881"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}