La Ley de seguridad en línea para niños no está bien, dicen los críticos


Aurich Lawson | imágenes falsas

El debate continúa sobre la Ley federal de seguridad en línea para niños (KOSA, por sus siglas en inglés), que busca responsabilizar a las plataformas por proporcionar contenido dañino a los menores. KOSA es la respuesta de los legisladores a las impactantes revelaciones de la denunciante Frances Haugen al Congreso. En 2021, Haugen filtró documentos y proporcionó testimonios alegando que Facebook sabía que su plataforma era adictiva y estaba dañando a los adolescentes, pero cegado por su búsqueda de ganancias, decidió ignorar los daños.

El senador Richard Blumenthal (D-Conn.), quien patrocinó a KOSA, estuvo entre los legisladores atónitos por el testimonio de Haugen. Dijo en 2021 que Haugen había demostrado que «Facebook explotaba a los adolescentes usando poderosos algoritmos que amplificaban sus inseguridades». El testimonio de Haugen, afirmó Blumenthal, proporcionó «una prueba poderosa de que Facebook sabía que sus productos estaban dañando a los adolescentes».

Pero cuando Blumenthal presentó KOSA el año pasado, el proyecto de ley enfrentó un retroceso masivo e inmediato de más de 90 organizaciones, incluidos grupos tecnológicos, defensores de los derechos digitales, expertos legales, organizaciones de seguridad infantil y grupos de derechos civiles. Estos críticos advirtieron a los legisladores sobre las muchas fallas de KOSA, pero lo que más les preocupaba era que el proyecto de ley impusiera un vago «deber de cuidado» en las plataformas que era «efectivamente una instrucción para emplear un amplio filtrado de contenido para limitar el acceso de los menores a cierto contenido en línea». El temor era que la provisión del deber de cuidado probablemente llevaría a las plataformas a sobremoderar y filtrar de manera imprecisa contenido considerado controvertido, como información sobre temas LGBTQ+, adicción a las drogas, trastornos alimentarios, problemas de salud mental o escape de situaciones abusivas.

Entonces, los reguladores tomaron un bolígrafo rojo para KOSA, que se reintrodujo en mayo de 2023 y se modificó este julio, tachando ciertas secciones y agregando nuevas disposiciones. Los partidarios de KOSA afirman que los cambios abordan adecuadamente los comentarios de los críticos. Estos partidarios, incluidos los grupos tecnológicos que ayudaron a redactar el proyecto de ley, le dijeron a Ars que están presionando para que se apruebe el proyecto de ley enmendado este año.

Y es posible que se salgan con la suya. Algunos antiguos críticos parecen satisfechos con las enmiendas más recientes de KOSA. Grupos LGBTQ+ como GLAAD y Human Rights Campaign eliminaron su oposición, informó Vice. Y en el Senado, el proyecto de ley ganó más apoyo bipartidista, atrayendo la friolera de 43 copatrocinadores de ambos lados del pasillo. Examinando el panorama legal, parece cada vez más probable que el proyecto de ley pueda aprobarse pronto.

¿Pero debería?

No todos los críticos estuvieron de acuerdo en que los cambios recientes al proyecto de ley van lo suficientemente lejos como para corregir sus mayores fallas. De hecho, los críticos más acérrimos del proyecto de ley le dijeron a Ars que la legislación es incurablemente defectuosa, debido a que la disposición del deber de cuidado apenas ha cambiado, y que aún corre el riesgo de crear más daño que bien para los niños.

Estos críticos también advierten que todos los usuarios de Internet podrían verse perjudicados, ya que las plataformas probablemente comenzarían a censurar una amplia gama de expresiones protegidas y limitarían la privacidad de los usuarios mediante la restricción de edad en Internet.

¿El “deber de cuidado” es fatalmente defectuoso?

Para abordar algunas de las críticas, el proyecto de ley cambió las restricciones de la plataforma para que las plataformas no comenzaran a bloquear el acceso de los niños a «recursos para la prevención o mitigación de» cualquier daño descrito en la disposición del deber de cuidado. En teoría, eso significa que si KOSA pasa, los niños aún deberían poder acceder a los recursos en línea para lidiar con:

  • Trastornos de salud mental, que incluyen ansiedad, depresión, trastornos alimentarios, trastornos por uso de sustancias y conductas suicidas.
  • Patrones de uso que indican o fomentan comportamientos similares a la adicción.
  • Violencia física, bullying online y acoso al menor.
  • Explotación y abuso sexuales.
  • Promoción y mercadeo de estupefacientes, productos del tabaco, juegos de azar o alcohol.
  • Prácticas de marketing depredadoras, injustas o engañosas, u otros daños financieros.

Anteriormente, esta sección que describía el contenido dañino era un poco más vaga y solo cubría el acceso de los menores a recursos que los ayudarían a prevenir y mitigar «comportamientos suicidas, uso de sustancias y otros daños».

Irene Ly, quien se desempeña como asesora sobre políticas tecnológicas para Common Sense Media, una organización sin fines de lucro que proporciona clasificaciones de edad para productos tecnológicos, ayudó a asesorar a los autores de KOSA sobre las enmiendas al proyecto de ley. Ly le dijo a Ars que estos cambios en el proyecto de ley han reducido lo suficiente el deber de cuidado y han reducido «el potencial de consecuencias no deseadas». Debido a esto, «el apoyo a KOSA por parte de los grupos y legisladores LGBTQ+, incluidos los miembros del Congreso abiertamente homosexuales» se «impulsó significativamente», dijo Ly.

Pero la sección del deber de cuidado en realidad no cambió tanto, dijeron los críticos de KOSA a Ars, y Vice informó que muchos de los partidarios de KOSA son organizaciones anti-LGBTQ de extrema derecha que aparentemente esperan tener la oportunidad de censurar una amplia franja de contenido LGBTQ+ en línea. .

El único otro cambio de KOSA fue fortalecer el «estándar de conocimiento» para que las plataformas solo puedan ser consideradas responsables de violar KOSA si no realizan «esfuerzos razonables» para mitigar los daños cuando saben que los niños están usando sus plataformas. Anteriormente, las plataformas podían ser consideradas responsables si un tribunal dictaminaba que las plataformas «deberían saber razonablemente» que hay menores en la plataforma.

Joe Mullin, analista de políticas de Electronic Frontier Foundation (EFF), una organización sin fines de lucro líder en derechos digitales que se opone a KOSA, le dijo a Ars que, si bien el cambio en el estándar de conocimiento es «realmente positivo» porque se «ajustó un poco». Aún así, la KOSA revisada «realmente no resuelve el problema» que muchos críticos aún tienen con la legislación.

«Creo que la sección del deber de cuidado tiene fallas fatales», dijo Mullin a Ars. «Realmente no lo cambiaron en absoluto».

En una carta a los legisladores el mes pasado, los expertos legales del grupo de expertos TechFreedom describieron de manera similar la sección del deber de cuidado como «irremediablemente defectuosa» y advirtieron que aparentemente viola la Primera Enmienda. La carta instaba a los legisladores a reconsiderar el enfoque de KOSA:

La inconstitucionalidad del deber de cuidado de KOSA se destaca por su naturaleza vaga e inconformista. Las plataformas no pueden «prevenir y mitigar» los problemas psicológicos complejos que surgen de las circunstancias a lo largo de la vida de un individuo, que pueden manifestarse en su actividad en línea. Estas circunstancias significan que el material dañino para un menor puede ser útil o incluso salvar la vida de otro, particularmente cuando se trata de trastornos alimentarios, autolesiones, uso de drogas y acoso escolar. Los menores son individuos, con diferentes necesidades, emociones y predisposiciones. Sin embargo, KOSA requeriría plataformas para adoptar un enfoque inviable de talla única para problemas profundamente personales, sirviendo así en última instancia a los mejores intereses de No menores de edad

El asesor principal de políticas de la ACLU, Cody Venzke, está de acuerdo con Mullin y TechFreedom en que la sección del deber de cuidado sigue siendo el mayor defecto del proyecto de ley. Al igual que TechFreedom, Venzke sigue sin estar convencido de que los cambios sean lo suficientemente significativos como para garantizar que los niños no se vean privados de algunos recursos en línea si se aprueba KOSA en su forma actual.

«Si tomas las disposiciones amplias y vagas del deber de cuidado, las plataformas terminarán eliminando tanto lo malo como lo bueno, porque la moderación del contenido está sesgada», dijo Venzke a Ars. «Y a los jóvenes no les hace ningún bien saber que aún pueden buscar recursos útiles, pero esos recursos útiles respaldados han sido barridos en las amplias eliminaciones de contenido».



Source link-49