Los jueces de la Corte Suprema admiten que no conocen las redes sociales


Foto: Chip Somodevilla (imágenes falsas)

Los jueces de la Corte Suprema de EE. UU. pueden ser muchas cosas, pero definitivamente no son expertos en redes sociales. los jueces se asaron durante los argumentos orales el martes de a caso contra Google eso podría determinar el destino de casi todo el discurso en línea. Las empresas de tecnología y los defensores temen que un fallo contra Google pueda alterar fundamentalmente la forma en que funciona Internet y conducir a un «espectáculo de terror» de contenido ofensivo e inútil. Los jueces que escuchaban los argumentos estaban muy, muy confundidos.

“Realmente no sabemos acerca de estas cosas”, dijo la jueza Elena Kagan. “Estos no son como los nueve mejores expertos en Internet”. La sala del tribunal estalló en lo que sonaba como una risa nerviosa.

Expertos o no, esos nueve jueces tienen la tarea de determinar si Sectien 230 las protecciones de responsabilidad se extienden a los algoritmos de recomendación. Esas protecciones, escritas en 1996 como parte de la Ley de Decencia en las Comunicaciones, evitan que las plataformas en línea enfrenten demandas si un usuario publica algo ilegal y al mismo tiempo los protege de la responsabilidad legal por moderar su propio contenido. Tradicionalmente se entiende que la Sección 230 se aplica al «contenido de terceros» en una plataforma, pero los abogados que demandan a Google afirman que el algoritmo de la empresa proceso de recomendación es similar a crear su propio contenido.

“¿No es mejor quédatelo [Section 230] como es? preguntó Brett Kavanaugh.

Argumento sobre las miniaturas de YouTube deja a los jueces confundidos

El caso en cuestión, González contra Google, se deriva de una demanda presentada por los padres de una estudiante universitaria de 23 años llamada Nohemi González que murió durante el ataque de ISIS en París en 2015 que dejó 129 muertos. La demanda de los padres de González alega que Google ayuda e instiga a terroristas al incluir contenido sospechoso de terrorismo en su algoritmo de recomendación. El demandante alegó que Google es responsable en virtud de la Ley Antiterrorista. Eric Schnapper, un abogado que representa a los padres, trató de ilustrar ese punto ante el tribunal señalando las miniaturas de YouTube que, según él, eran al menos en parte contenido propio, ya que incluyen una URL y una imagen generada por Google.

“Nuestro argumento es [that] el uso de miniaturas es lo mismo según el estatuto que enviarle a alguien un correo electrónico y decir: ‘Quizás te gustaría ver este nuevo video ahora’”, dijo Schnapper.

Si alguien piensa que eso suena como una exageración, no está solo. Múltiples jueces se quedaron rascándose la cabeza durante el argumento oral de aproximadamente dos horas.

“Admito que estoy completamente confundido por cualquier argumento que esté haciendo en este momento”, dijo el juez Samuel Alito. La recién nombrada jueza Ketanji Brown Jackson se hizo eco de ese sentimiento y admitió que estaba “totalmente confundida” por el argumento de Schnapper.

«Entonces ellos [social media companies] ¿No debería usar miniaturas en absoluto?” preguntó Alito.

Schnapper luego trató de esquivar las preguntas de los jueces preguntando si un fallo a su favor podría tener unconsecuencias previstas para contenido que de otro modo sería inocuo recomendado a través de algoritmos. Múltiples jueces, incluido el designado por Donald Trump Brett Kavanaugh, dijo que eliminar las protecciones de la Sección 230 de las recomendaciones podría exponer a las empresas a una serie vertiginosa de juicios implacables. Eso podría hacer que sea poco realista que las empresas alojen y eliminen incluso contenido moderadamente controvertido.

“Nos está pidiendo que hagamos un juicio muy preciso”, dijo Kavanaugh. Tanto Kavanaugh como Kagan expresaron inquietud sobre si la Corte Suprema debería opinar o no, y agregaron que el Congreso puede estar mejor equipado para decidir el destino del algoritmo de recomendación.

“Somos un tribunal”, dijo Kagan. “Realmente no sabemos sobre este tipo de cosas”.

José Hernández y Beatriz González, padrastro y madre de Nohemi González, quien murió en un ataque terrorista en París en 2015, llegan para hablar con la prensa fuera de la Corte Suprema de EE. UU. luego de los argumentos orales en González v. Google el 21 de febrero de 2023 en Washington , CC.

José Hernández y Beatriz González, padrastro y madre de Nohemi González, quien murió en un ataque terrorista en París en 2015, llegan para hablar con la prensa fuera de la Corte Suprema de EE. UU. luego de los argumentos orales en González v. Google el 21 de febrero de 2023 en Washington , CC.
Foto: dibujó enojado (imágenes falsas)

El fallo del Tribunal Supremo podría convertir las redes sociales en ‘El show de Truman versus el espectáculo de terror’

Las empresas tecnológicas y los defensores de la Sección 230 argumentan que eliminar las protecciones de responsabilidad para los algoritmos de recomendación alteraría fundamentalmente la forma en que Internet funciona actualmente y podría obligar a las empresas de redes sociales a involucrarse en niveles rigurosos de autocensura o exceso.aplicación. Los partidarios de amplias protecciones, como Electronic Frontier Foundation, dicen que las empresas de redes sociales pueden optar por simplemente evitar albergar cualquier importante pero contenido político potencialmente controvertido para evitar demandas. Otros pueden decidir sobre un todo vale, caos-plataforma llena. Lisa Blatt, una abogada que representa a Google, le dijo a la corte que la realidad dejaría a los usuarios de Internet eligiendo entre “El Show de Truman versus el programa de terror”.

“Internet nunca habría despegado si cualquiera pudiera demandar en cualquier momento y se dejara en manos de los regímenes de responsabilidad de 50 estados”, agregó Blatt.

Los retweets, los me gusta y las alucinaciones de los chatbots podrían conducir a demandas

Aunque gran parte del debate en torno al alcance de las protecciones de la Sección 230 se centra en las consecuencias para las empresas de tecnología, los argumentos orales también destacaron los posibles efectos posteriores para los usuarios cotidianos. Respondiendo a las preguntas de Amy Coney Barrett, abogada de González Schnapper admitió un fallo en el caso de su cliente favor podría significar que los retweets o me gusta de los usuarios habituales no recibirían protección de responsabilidad en virtud de la Sección 230, ya que ambas acciones técnicamente contarían como contenido nuevo generado. Eso significa una eRetuitear mal, al menos en teoría, podría conducir a una demanda.

“Ese es el contenido que has creado”, dijo Schnapper, refiriéndose al retuitero.

Si esa teoría legal gana el día, las cosas podrían complicarse mucho más en línea, particularmente en la era de los chatbots avanzados y la inteligencia artificial generativa. El juez Neil Gorsuch planteó ese punto durante los argumentos orales y dijo que no creía en los chatbots, como el de OpenAI. ChatGPT, deberían tener derecho a la protección de la Sección 230 ya que están creando contenido «nuevo». Bajo ese marco, las empresas podrían estar potencialmente abiertas a demandas por información dañina o falsa revelada por un sistema de IA.

“La inteligencia artificial genera poesía”, dijo Gorsuch. “Genera polémica hoy que serían contenidos que van más allá de recoger, elegir, analizar o digerir contenidos. Y eso no está protegido”.

Aunque el tribunal no parecía muy convencido de los argumentos vacilantes ofrecidos por el abogado de González, no estaban necesariamente totalmente convencidos de la idea de que la protección de la Sección 230 se extiende inherentemente a las recomendaciones. Justicia jackson expresó su escepticismo sobre si dosdécada de antigüedad Sección 230 pLa protección podría haber predicho el algoritmo de recomendación.

“¿No es cierto que el estatuto tenía un alcance de inmunidad más limitado de lo que los tribunales finalmente interpretaron que tiene, y que en realidad solo se trataba de asegurarse de que su plataforma y otras plataformas no fueron desincentivadas para bloquear, filtrar y eliminar contenido ofensivo?” preguntó Jackson.

Democrático Sen. Ron Wyden y el exrepresentante republicano Chris Cox, los autores originales de las Secciones 230, se desviaron de ese punto en un presentación a la corte en Google contra González donde dijeron que los sistemas de recomendación son un ejemplo de “método más contemporáneo de presentación de contenido”.

“El Congreso redactó la Sección 230 de una manera tecnológicamente neutral que permitiría que la disposición se aplicara a los métodos desarrollados posteriormente para presentar y moderar el contenido generado por el usuario”, escribieron los legisladores.

Los jueces volverán a reunirse el miércoles para escuchar los argumentos del caso. Twitter contra Taamnehque se centra de manera similar en si las empresas de tecnología son responsables, tanto en virtud de la Sección 230 como de la Ley Antiterrorista.



Source link-45