El Tribunal Supremo está decidiendo el futuro de internet, y así lo hizo


“Somos un tribunal. Realmente no sabemos acerca de estas cosas. Estos no son los nueve mejores expertos en Internet”.

La jueza de la Corte Suprema Elena Kagan hizo el comentario irónicamente autocrítico al comienzo de los argumentos orales para González contra Googleun posible caso histórico que cubre la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996. El comentario fue un guiño a los peores temores de muchas personas sobre el caso. González podría anular las protecciones legales fundamentales para Internet, y lo decidirá un tribunal que ha mostrado apetito por revocando el precedente legal y reexaminar la antigua ley del habla.

Pero hoy, durante una sesión de preguntas notablemente entretenida, el tribunal analizó inesperadamente la Sección 230. El resultado en González está lejos de ser seguro, pero hasta ahora, el debate sugiere una conciencia tranquilizadora por parte del tribunal de cuán importante será el fallo y las posibles consecuencias de arruinarlo.

González contra Google cubre un tipo muy específico de interacción en línea con implicaciones potencialmente enormes. La demanda se deriva de un tiroteo del Estado Islámico en París que mató a la estudiante Nohemi González en 2015. Su familia sobreviviente argumentó que YouTube había recomendado videos de terroristas y, por lo tanto, violó las leyes contra la complicidad de grupos terroristas extranjeros. Si bien la Sección 230 generalmente protege a los sitios de la responsabilidad por el contenido generado por el usuario, la petición argumenta que YouTube creó su propio discurso con sus recomendaciones.

“Cada vez que alguien mira algo en Internet, hay un algoritmo involucrado”.

La audiencia de hoy se centró en gran medida en las «miniaturas», un término que el abogado de la familia González, Eric Schnapper, definió como una combinación de una imagen proporcionada por el usuario y una dirección web generada por YouTube para el video. Varios jueces parecían dudar de que la creación de una URL y un sistema de clasificación de recomendaciones despojara a los sitios de las protecciones de la Sección 230, particularmente porque las miniaturas no tenían un papel importante en el informe original. Kagan y otros preguntaron si el problema de las miniaturas desaparecería si YouTube simplemente cambiara el nombre de los videos o proporcionara capturas de pantalla, sugiriendo que el argumento era un tecnicismo confuso.

Las sutiles distinciones en torno a la Sección 230 fueron un tema recurrente en la audiencia, y por una buena razón. González apunta a recomendaciones «algorítmicas» como el contenido que se reproduce automáticamente después de un video de YouTube dado, pero como señaló Kagan, casi todo lo que ves en Internet implica algún tipo de clasificación basada en algoritmos. “Este era un estatuto previo al algoritmo, y todos están haciendo todo lo posible para descubrir cómo se aplica este estatuto”, dijo Kagan. “Cada vez que alguien mira algo en Internet, hay un algoritmo involucrado”.

La introducción de la responsabilidad de estos algoritmos plantea todo tipo de preguntas hipotéticas. ¿Se debe castigar a Google por mostrar resultados de búsqueda que se vinculen a difamación o contenido terrorista, incluso si está respondiendo a una consulta de búsqueda directa de una declaración falsa o un video terrorista? Y, por el contrario, ¿está claro un sitio web hipotético si escribe un algoritmo diseñado deliberadamente para estar «en connivencia con ISIS», como lo expresó la jueza Sonia Sotomayor? Si bien (algo sorprendentemente) no apareció en los argumentos de hoy, al menos una sentencia tiene encontró que el diseño de un sitio puede hacerlo activamente discriminatorio, independientemente de que el resultado involucre información completada por los usuarios.

Equilibrar el equilibrio aquí podría convertir los componentes técnicos básicos de Internet, como los motores de búsqueda y la generación de URL, en un campo minado legal. Hubo algunos comentarios escépticos sobre los temores de que se exagerara un apocalipsis web sin la Sección 230, pero el tribunal preguntó repetidamente cómo cambiar los límites de la ley afectaría prácticamente a Internet y las empresas que respalda.

El tribunal a veces parecía frustrado por haber tomado el caso en absoluto.

Como alude el escritor jurídico Eric Goldman en un informe de la audiencia, los jueces a veces parecían frustrados por haber asumido el González caso en absoluto. Hay otra audiencia mañana para Twitter contra Taamneh, que también cubre cuándo las empresas son responsables de permitir que los terroristas usen su plataforma, y ​​la jueza Amy Coney Barrett planteó la posibilidad de usar ese caso para dictaminar que simplemente no lo son, algo que podría permitir que la corte evite tocar la Sección 230 al hacer que la preguntas a su alrededor discutibles. El juez Kavanaugh también reflexionó sobre si el Congreso, y no el tribunal, debería ser responsable de realizar cambios radicales en la Sección 230.

Sin embargo, eso no aclara a Google ni al resto de Internet. González Es casi seguro que no será el último caso de la Sección 230, e incluso si este caso se desestima, la abogada de Google, Lisa Blatt, se enfrentó a preguntas sobre si la Sección 230 todavía cumple uno de sus propósitos originales: alentar a los sitios a moderar de manera efectiva sin temor a ser castigados. para ello.

Blatt planteó el espectro de un mundo que es un «espectáculo de Truman o un espectáculo de terror», en otras palabras, donde los servicios web eliminan cualquier cosa remotamente legalmente cuestionable o se niegan a ver lo que hay en su sitio. Pero no sabemos cuán convincente es esa defensa, especialmente en áreas incipientes como la búsqueda impulsada por inteligencia artificialque fue planteado repetidamente por el juez Neil Gorsuch como un indicador del extraño futuro de las plataformas. el poste de washington habló con la destacada crítica de la Sección 230 Mary Anne Franks, quien expresó una esperanza provisional de que los jueces parecían dispuestos a cambiar la regla.

Aún así, los argumentos de hoy fueron un alivio después del año pasado. ciclo legal de pesadilla. Incluso el juez Clarence Thomas, que ha escrito algunas opiniones siniestras y escalofriantes sobre «Big Tech» y la Sección 230, pasó la mayor parte de su tiempo preguntándose por qué YouTube debería ser castigado por proporcionar un sistema de recomendación algorítmica que cubría videos terroristas junto con videos sobre gatos lindos y » pilaf de Uzbekistán”. Por ahora, eso podría ser lo mejor que podemos esperar.



Source link-37