Anuncio <\/span> <\/p>\n<\/aside>\nLa expectativa es que las plataformas en l\u00ednea deben ir m\u00e1s all\u00e1 para proteger a los menores de pr\u00e1cticas comerciales da\u00f1inas, enga\u00f1osas o desleales.<\/p>\n
Adem\u00e1s de la carga de verificar a los menores y a los padres, tutores o cuidadores, la ley estipula que las plataformas en l\u00ednea tambi\u00e9n ser\u00e1n responsables de crear nuevos controles para padres, crear un portal para comunicarse con los padres sobre la actividad de los menores y permitir que los padres controlen m\u00e1s f\u00e1cilmente comportamientos de los menores y controlar su actividad en las plataformas en l\u00ednea.<\/p>\n
Las plataformas tambi\u00e9n deben tomar medidas para impedir que los menores accedan a contenido da\u00f1ino que \u00abpromueve, glorifica o facilita\u00bb el suicidio, las autolesiones, los trastornos alimentarios, el abuso de sustancias, el acecho, la intimidaci\u00f3n, el acoso, la manipulaci\u00f3n, el tr\u00e1fico, los materiales de abuso sexual infantil u otros explotaci\u00f3n o abuso sexual. Parte de ese esfuerzo incluye desarrollar una estrategia para mantener \u00abuna lista completa de material da\u00f1ino\u00bb para \u00abbloquear la visualizaci\u00f3n a un menor conocido\u00bb y contratar personas reales para revisar y verificar que los filtros funcionan, no solo depender de la moderaci\u00f3n de contenido automatizada.<\/p>\n
Cualquier paso en falso podr\u00eda generar requisitos adicionales, incluidas las plataformas sujetas a auditor\u00edas independientes peri\u00f3dicas para garantizar que los filtros de contenido funcionen de manera \u00f3ptima para proteger a los ni\u00f1os.<\/p>\n
Adem\u00e1s de todo eso, la ley de Texas requiere que las plataformas en l\u00ednea hagan que sus algoritmos sean m\u00e1s transparentes para los usuarios, revelando claramente en t\u00e9rminos de servicio o pol\u00edticas de privacidad c\u00f3mo los algoritmos organizan y filtran el contenido.<\/p>\n<\/p><\/div>\n