Dos casos de la Corte Suprema podrían alterar las reglas de Internet


La Corte Suprema pronto podría redefinir las reglas de Internet tal como la conocemos. Esta semana, la corte escuchará dos casos, González contra Google y Twitter contra Taamnehque le dan la oportunidad de cambiar drásticamente las reglas del habla en línea.

Ambos casos tratan sobre cómo las plataformas en línea han manejado el contenido terrorista. Y ambos han generado profundas preocupaciones sobre el futuro de la moderación de contenido, los algoritmos y la censura.

Sección 230 y González v. Google

Si ha pasado algún tiempo siguiendo las diversas guerras culturales asociadas con la libertad de expresión en línea en los últimos años, probablemente haya oído hablar de la Sección 230. A veces se la denomina «las veintiséis palabras que inventaron Internet». 230 es una cláusula de la Ley de Decencia en las Comunicaciones que protege a las plataformas en línea de la responsabilidad por las acciones de sus usuarios. También protege la capacidad de las empresas para moderar lo que aparece en sus plataformas.

Sin estas protecciones, argumentan los defensores de la Sección 230, Internet, tal como la conocemos, no podría existir. Pero la ley también ha sido objeto de escrutinio en los últimos años en medio de un reconocimiento más amplio del impacto de las grandes tecnologías en la sociedad. En términos generales, los de la derecha están a favor de derogar la Sección 230 porque afirman que permite la censura, mientras que algunos de la izquierda han dicho que permite a los gigantes tecnológicos evitar la responsabilidad por los daños sociales causados ​​por sus plataformas. Pero incluso entre aquellos que buscan enmendar o desmantelar la Sección 230, ha habido poco acuerdo sobre reformas específicas.

La sección 230 también se encuentra en el corazón de González contra Google, que el Tribunal Supremo conocerá el próximo 21 de febrero. El caso, presentado por familiares de una víctima del ataque terrorista de París de 2015, argumenta que Google violó las leyes antiterroristas de EE. UU. cuando aparecieron videos de ISIS en las recomendaciones de YouTube. Las protecciones de la Sección 230, según la demanda, no deberían aplicarse porque YouTube algoritmos sugirió los videos.

“Básicamente se reduce a decir que las plataformas no son responsables del contenido publicado por ISIS, pero sí de los algoritmos de recomendación que promovieron ese contenido”, dijo Daphne Keller, quien dirige el Programa de Regulación de Plataformas en el Centro de Política Cibernética de Stanford, durante una reciente mesa redonda sobre el caso.

Eso puede parecer una distinción relativamente limitada, pero los algoritmos sustentan casi todos los aspectos de la Internet moderna. Por lo tanto, el fallo de la Corte Suprema podría tener un impacto enorme no solo en Google, sino en casi todas las empresas que operan en línea. Si el tribunal se pone del lado de Google, entonces «podría significar que las plataformas en línea tendrían que cambiar la forma en que operan para evitar ser considerados responsables del contenido que se promociona en sus sitios», el Bipartisan Policy Center, un grupo de expertos con sede en Washington. , explica. Algunos han especulado que las plataformas podrían verse obligadas a eliminar cualquier tipo de clasificación, o tendrían que participar en una moderación de contenido tan agresiva que eliminaría todo menos el contenido más banal y menos controvertido.

“Creo que es correcto que esta opinión sea la más importante de la Corte Suprema sobre Internet, posiblemente nunca”, dijo el profesor de derecho de la Universidad de Minnesota, Alan Rozenshtein, durante el mismo panel, organizado por la Institución Brookings.

Es por eso que docenas de otras plataformas, grupos de la sociedad civil e incluso los autores originales de la Sección 230 han intervenido, a través de escritos de «amigo de la corte», en apoyo de Google. En su escrito, Reddit argumentó que erosionar las protecciones 230 para los algoritmos de recomendación podría amenazar la existencia de cualquier plataforma que, como Reddit, dependa del contenido generado por el usuario.

“La Sección 230 protege a Reddit, así como a los moderadores y usuarios voluntarios de Reddit, cuando promueven y recomiendan, o eliminan, contenido digital creado por otros”, afirma Reddit en su presentación. “Sin la protección sólida de la Sección 230, los usuarios de Internet, no solo las empresas, enfrentarían muchas más demandas de los demandantes que afirman sentirse perjudicados por las decisiones diarias de moderación de contenido”.

Yelp, que ha pasado gran parte de los últimos años abogando por acciones antimonopolio contra Google, compartió preocupaciones similares. “Si Yelp no pudiera analizar y recomendar reseñas sin enfrentar responsabilidades, los costos de enviar reseñas fraudulentas desaparecerían”, argumenta la compañía. “Si Yelp tuviera que mostrar todas las reseñas enviadas, sin la libertad editorial que proporciona la Sección 230 para recomendar algorítmicamente algunas sobre otras para los consumidores, los dueños de negocios podrían enviar cientos de reseñas positivas para su propio negocio con poco esfuerzo o riesgo de una sanción”.

Meta, por otro lado, argumenta que un dictamen 230 que no se aplica a los algoritmos de recomendación llevaría a las plataformas a suprimir más discursos «impopulares». Curiosamente, este argumento parece jugar con las preocupaciones de la derecha sobre la censura. «Si los servicios en línea corren el riesgo de una responsabilidad sustancial por difundir contenido de terceros… pero no por eliminar contenido de terceros, inevitablemente se equivocarán al eliminar contenido que se acerque a la línea de responsabilidad potencial», escribe la compañía. “Esos incentivos afectarán particularmente el contenido que desafía el consenso o expresa un punto de vista impopular”.

Twitter contra Taamneh

El día después de que la Corte Suprema escuche los argumentos en González contra Google, escuchará otro caso con consecuencias potencialmente enormes para la forma en que se modera el discurso en línea: Twitter contra Taamneh. Y aunque el caso no trata directamente con la Sección 230, el caso es similar a González contra Google en algunas formas importantes.

Como González, el caso fue presentado por la familia de una víctima de un ataque terrorista. Y, como González, Los familiares de la víctima están utilizando las leyes antiterroristas de EE. UU. para responsabilizar a Twitter, Google y Facebook, argumentando que las plataformas ayudaron a las organizaciones terroristas al no eliminar el contenido de ISIS de sus servicios. Al igual que en el caso anterior, la preocupación de las plataformas tecnológicas y los grupos de defensa es que un fallo en contra de Twitter tendría profundas consecuencias para las plataformas de redes sociales y los editores.

“Hay implicaciones sobre la moderación del contenido y si las empresas podrían ser responsables de actividades violentas, delictivas o difamatorias promovidas en sus sitios web”, dice el Bipartisan Policy Center sobre el caso. Si la Corte Suprema estuviera de acuerdo en que las plataformas son responsables, entonces «se necesitarían implementar mayores políticas de moderación de contenido y restricciones en la publicación de contenido, o esto incentivará a las plataformas a no aplicar moderación de contenido para evitar la conciencia».

Y, como señaló Electronic Frontier Foundation en su presentación en apoyo de Twitter, las plataformas «se verán obligadas a tomar medidas extremas y escalofriantes para aislarse de posibles responsabilidades».

Incluso podría haber ramificaciones potenciales para las empresas cuyos servicios se operan principalmente desconectado. “Si se puede responsabilizar a una empresa por las acciones de una organización terrorista simplemente porque permitió que los miembros de esa organización usaran sus productos en los mismos términos que cualquier otro consumidor, entonces las implicaciones podrían ser asombrosas”, escribe Vox.

Que sigue

Pasarán varios meses más antes de que sepamos el resultado de cualquiera de estos casos, aunque los analistas observarán de cerca los procedimientos para tener una idea de hacia dónde se inclinan los jueces. También vale la pena señalar que estos no son los únicos casos fundamentales relacionados con las redes sociales y el discurso en línea.

Hay otros dos casos, relacionados con las leyes restrictivas de las redes sociales de Florida y Texas, que también podrían terminar en la Corte Suprema. Ambos también podrían tener consecuencias significativas para la moderación del contenido en línea.

Mientras tanto, muchos defensores argumentan que es mejor dejar la reforma de la Sección 230 al Congreso, no a los tribunales. Como escribió recientemente Jeff Kosseff, profesor de derecho en la Academia Naval de EE. UU., quien literalmente escribió el libro sobre la Sección 230, casos como González “desafíenos a tener una conversación nacional sobre cuestiones difíciles relacionadas con la libertad de expresión, la moderación del contenido y los daños en línea”. Pero, argumenta, la decisión debería corresponder a la rama de gobierno donde se originó la ley.

“Tal vez el Congreso determine que han proliferado demasiados daños bajo la Sección 230 y enmiende el estatuto para aumentar la responsabilidad por el contenido promovido algorítmicamente. Tal propuesta enfrentaría su propio conjunto de costos y beneficios, pero es una decisión del Congreso, no de los tribunales”.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47