SCOTUS sopesa el escudo del habla en línea en el caso González vs Google


Foto: Chip Somodevilla (imágenes falsas)

El fallo de la Corte Suprema sobre un par de ISIS casos de terrorismo este semana se basará en la interpretación de los nueve jueces de 26 palabras escritas en 1996 que colectivamente han llegado a definir la naturaleza y el alcance de la expresión en línea moderna. El fallo podría alterar fundamentalmente los tipos de contenido por los que las empresas sociales son legalmente responsables y podría forzarlos a reexaminar las formas en que utilizan los algoritmos de recomendación para ofrecer contenido a los usuarios. Aunque eso suene esotérico, las empresas de tecnología son responsables de tus publicaciones. cambiaria drasticamente tu experiencia diaria en las redes sociales.

Esas 26 palabras, conocidas oficialmente como Sección 230 de la Ley de Decencia en las Comunicaciones, han sido denominados como los “columna vertebral de internet» por simpatizantes y como una coartada digital demasiado amplia isquiotibiales responsabilidad de sus oponentes. En pocas palabras, la Sección 230 evita que las plataformas en línea enfrenten demandas si uno de sus usuarios publica algo ilegal y los protege de la responsabilidad legal por moderar su propio contenido. En 2023, la capacidad de Google, Meta, Amazon y Twitter para impulsar cierto contenido, curar historias, degradar publicaciones dañinas, o prohibir a los imbéciles beligerantes sin mirar constantemente por encima del hombro en busca de un aluvión de demandas multimillonarias, eso es todo gracias a 230.

“Esta decisión podría tener un impacto devastador en la expresión en línea”, dijo Alexandra Reeve Givens, presidenta y directora ejecutiva del Centro para la Democracia y la Tecnología, en un comunicado enviado a Gizmodo.

González contra Google y Twitter contra Taamneh

Dos SCOTUS recientes casos, González contra Google y Twitter contra Taamneh, ambos se centran en cómo las empresas de redes sociales manejar contenido terrorista y sobre si son responsabletanto bajo la Sección 230 como en virtud de la Ley Antiterrorista. El primer caso se deriva de una demanda presentada por los padres de una estudiante universitaria de 23 años llamada Nohemi González, quien murió en un brutal ataque de ISIS en París en 2015 que dejó 129 muertos.. Los padres de González demandaron a Google, alegando él ayuda e incita a terroristas como los responsables de la muerte de su hija cuando promociona videos creados por terroristas en su algoritmo de recomendación de YouTube. YouTube elimina la mayor parte del contenido terrorista rápidamente, pero como cualquier plataforma, no puede captar todos los ejemplos.

El caso Taamneh alega que Twitter ayudó e instigó al terrorismo cuando no logró eliminar suficientemente el contenido de ISIS en la plataforma luego de un ataque en 2017. Los peticionarios, en ambos casos, están tratando de convencer al tribunal que la Sección 230 no se aplica a el algorítmico recomendación de publicaciones en redes sociales.

“Una decisión de la Corte excluyendo ‘recomendaciones’ del escudo de responsabilidad de la Sección 230 se extendería ampliamente por Internet y haría que los proveedores limiten el discurso en línea para reducir su riesgo de responsabilidad, con efectos perjudiciales para la capacidad de los usuarios para hablar y acceder a la información”, dijo Reeve. Datos.

Google sostiene que es inmunidad de responsabilidad bajo la Sección 230. Hasta ahora, dos tribunales, un tribunal federal en California y el noveno circuito Corte de Apelaciones ambos se han puesto del lado de Google. Las plataformas rivales como Meta han hecho una tregua temporal con Google y han apoyado públicamente su argumento, diciendo a los tribunales El gran volumen de contenido que inunda Internet hace que los algoritmos de recomendación sean una necesidad básica para la comunicación en línea. Otros, como Electronic Frontier Foundation, han comparado los algoritmos de recomendación como el equivalente digital de los periódicos que dirigen a los lectores hacia cierto contenido. Sin embargo, la EFF todavía está a favor de permitir que se mantengan las protecciones de la Sección 230.

Los partidarios de la Sección 230, que incluye casi todas las plataformas tecnológicas, dicen que las protecciones, tal como se entienden actualmente, son cruciales, han ayudado a los advenedizos a prosperar y son una razón clave por la que EE. UU. es el hogar de las plataformas en línea más grandes y exitosas de la Tierra. Un número creciente de críticos y legisladores de ambos lados del espectro político, sin embargo, siente que es dado a las plataformas demasiado margen para dejar contenido horrible, horrible, o demasiado poder para silenciar unilateralmente ciertas voces y controlar el discurso en línea. En general, los demócratas generalmente quieren que las plataformas eliminen más contenido, mientras que la derecha, como lo demostró de manera increíblemente inepta el nuevo CEO de Twitter, Elon Musk, quiere mantener más contenido activo.. Ex-presidente Donald Trump y Ted Cruz han pedido que se sacuda 230. También lo han hecho Joe Biden y la senadora de Minnesota Amy Klobuchar. Trump, sin embargo, modera su red social, Truth Socialal igual que los otros jugadores en el juego.

“La Corte necesita entender cómo funciona realmente la tecnología subyacente al discurso en línea, para llegar a un fallo reflexivo que proteja los derechos de los usuarios”, agregó Reeve Givens.

¿Cómo podría Internet cambiar las agallas de SCOTUS? Sección 230?

Dicho claramente, la Corte Suprema decisión aquí podría alterar radicalmente la forma el contenido es moderado en línea y cómo los usuarios cotidianos experimentan Internet. Los partidarios del statu quo, como el Centro para la Democracia y la Tecnología, dicen que un fallo a favor de los peticionarios podría tener efectos indirectos para una amplia gama de empresas en toda la web, no solo para las grandes plataformas de redes sociales. Bajo ese nuevo marcomotores de búsqueda, agregadores de noticias, sitios de comercio electrónico y, básicamente, cualquier sitio web que sirva contenido a los usuarios podrían enfrentar una mayor responsabilidad, lo que podría hacer que limiten severamente la cantidad de contenido que sirven.

“El tribunal podría tomar esto fácilmente y luego fallar de manera que afecte cuestiones importantes que en realidad no plantea el caso”, dijo la directora de regulación de la plataforma del Centro de Políticas Cibernéticas de Stanford, Daphne Keller. le dijo a Axios el año pasado. “Podría significar que las fuentes de noticias se eliminen de cualquier cosa que cree temor a un riesgo legal, por lo que se vuelven súper desinfectadas”.

Otros críticos, como la EFF, temen que esta realidad pueda obligar a las empresas a involucrarse en niveles severos de ser-censura. sin fuerte 230 protecciones, dicen los seguidores en las redes sociales las empresas pueden optar por simplemente evitar alojar cualquier contenido político o social importante, pero potencialmente controvertido. En un ejemplo extremo, la plataforma podría simplemente borrar cualquier contenido que use o esté relacionado con el término «terrorista» simplemente para evitar ser implicado bajo las leyes antiterroristas.

Por otro lado, para gran disgusto de los legisladores conservadores, el fallo también podría resultar en que las plataformas se sientan obligadas a eliminar de manera más agresiva ciertos tipos de discurso hasta el punto de hacer cumplir la ley en exceso. Las plataformas podrían abandonar por completo el uso de algoritmos de clasificación para ofrecer conexiones, lo que podría dificultar mucho más que los usuarios encuentren información relevante y hagan las experiencias en línea ya están empeorando aún más.

Partidarios de los demandantes centrarse en los miedos más inmediatos. Los argumentos de Big Tech son quisquillosos y de naturaleza teórica, dicen, y no reconocer adecuadamente daño presente, del mundo real. Algoritmos de recomendación inflama ese daño, creando a necesitan reducir el alcance de 230, dicen. Los nueve jueces mismos han sido muy estrictos con la tecnología.

“A medida que Internet ha crecido, sus problemas también han aumentado. Pero hay maneras de abordar esos problemas sin debilitar una ley que protege el habla digital de todos”, un EFF Policy Analyst escribió. “Eliminar las protecciones para el discurso en línea y la moderación en línea sería un enfoque tonto y dañino. La Corte Suprema debería usar el caso González como una oportunidad para garantizar que la Sección 230 continúe ofreciendo una amplia protección de los derechos de los usuarios de Internet”.



Source link-45