Con o sin Elon, la moderación del contenido de las redes sociales sigue siendo complicada


Es casi seguro que la moderación del contenido en las redes sociales enfadará a la gente, pero que los gobiernos prohíban la práctica enfadaría a muchas más personas. Mientras tanto, los mayores riesgos de supresión del habla pueden acechar entre las empresas de infraestructura que habilitan las aplicaciones y los servicios sociales, pero eso tampoco puede ser un problema que se pueda solucionar con las leyes de obligación de llevar.

Este consejo no concluyente, menos «primero, no hacer daño» que «primero, no hacer nada», provino de un panel de moderación de contenido de redes sociales en Future of Speech Online 2022(Se abre en una nueva ventana) conferencia el jueves, un evento en línea organizado por el Centro para la Democracia y la Tecnología (CDT).

Pero fue difícil culpar a los oradores por no tener una respuesta del tamaño de un tweet al problema de la moderación de contenido que no da en el blanco, así como las leyes que intentan resolver ese problema prohibiendo la moderación de contenido en las grandes redes sociales.

El problema básico aquí es que las plataformas sociales con fines de lucro tienen un incentivo comercial para evitar que sus discusiones sean demasiado tóxicas, pero enfrentan demandas contradictorias del resto de la sociedad sobre cómo deben usar su libertad como actores privados para hacer eso.

“Están eliminando muchas más expresiones de las que el estado podría restringir directamente bajo las leyes”, dijo la moderadora del panel Emma Llansó, subdirectora del Proyecto de Libertad de Expresión del CDT.

Hacer demasiado (o demasiado poco)

Los últimos giros de la trama del Twitter de Elon Musk son nuevos recordatorios de cómo una plataforma puede hacer demasiado o demasiado poco. Por un lado, Musk ha anunciado su intención de revertir las llamadas anteriores de moderación de contenido; por ejemplo, el movimiento de Twitter rápidamente retractado en octubre de 2020 para bloquear el intercambio de un Correo de Nueva York historia(Se abre en una nueva ventana) sobre los correos electrónicos de Hunter Biden que temía que se hubieran obtenido ilegalmente.

Por otro lado, los investigadores señalaron un aumento del discurso de odio en Twitter, ya que Musk eliminó las reglas de contenido y restauró miles de cuentas prohibidas.

Los panelistas del jueves no tuvieron problemas para identificar las formas en que la moderación de contenido puede fallar en la práctica. Puede fallar cuando las personas envían informes incorrectos o deliberadamente falsos: Dmitri Vitaliev, fundador y director de eQualitie(Se abre en una nueva ventana)dijo que «alrededor de las tres cuartas partes» de las solicitudes de eliminación que la firma de seguridad de la plataforma de Montreal recibe sobre los sitios de sus clientes son erróneas.

Puede ser jugado por adversarios determinados. “Hay agujeros en muchas de estas políticas que los malos actores están explotando”, dijo Yosef Getachew, director del Programa de Medios y Democracia de Common Cause.(Se abre en una nueva ventana).

E incluso cuando las quejas de buena fe incitan a la acción, pueden ir demasiado lejos. “El overblocking es casi inevitable en la mayoría de los casos”, dijo Corynne McSherry, directora legal de Electronic Frontier Foundation.(Se abre en una nueva ventana). “El debido proceso va a ser difícil”.

Twitter debería querer que los estados retrocedan

A principios de este año, Florida y Texas propusieron su propia solución para esos problemas: prohibir la mayor parte o toda la moderación de los grandes sitios sociales en función de los puntos de vista políticos. La Corte Suprema parece segura de asumir la cuestión constitucional que esas leyes invitan: ¿obligar a una empresa privada a publicar un discurso que encuentra espantoso viola los derechos de la Primera Enmienda de esa empresa?

Los panelistas esperaban que la Corte derribara ambos, para que todo el modelo de negocios de las redes sociales no se vea afectado por leyes obligatorias que los obliguen a albergar discursos de odio racista.

Musk, en particular, debería querer ver que se eliminen esas leyes, dijo Blake Reid, director de la Clínica de Tecnología Samuelson-Glushko en Silicon Flatirons Center.(Se abre en una nueva ventana)un grupo de expertos de la Facultad de Derecho de la Universidad de Colorado.

“Muchos de los problemas con los que está tratando de lidiar, para apuntalar los ingresos de Twitter, serán mucho más difíciles si son ilegales según una ley de transporte común”, dijo, citando la ambición de Musk de prohibir los bots en el servicio. .

Pero los gobiernos no son los únicos organismos que pueden frenar u obligar a la moderación del contenido. Las empresas que operan tiendas de aplicaciones y servicios de procesamiento de pagos también pueden amenazar la existencia de una plataforma social. Ve a Musk preocupándose de que Apple podría expulsar a Twitter de la App Store por una moderación de contenido inadecuada, o OnlyFans diciendo brevemente que prohibiría la pornografía después de que las empresas de pago se opusieran a ese pilar del sitio.

Recomendado por Nuestros Editores

(El debate se enreda aún más cuando se observa el papel de las empresas de seguridad de sitios como Cloudflare, que se ha esforzado por decidir si su misión declarada de mantener la web en funcionamiento requiere que haga negocios con empresas como el sitio neonazi Daily Stormer. o el pozo negro de odio 8Chan. Pero esta discusión de casi una hora ni siquiera llegó a eso).

“Eso podría ser una misión absolutamente crítica”, dijo McSherry sobre los cortes de procesamiento de pagos. Especialmente cuando los gobiernos se dan cuenta de que esto puede ser una palanca más fácil de alcanzar: «Cada vez que intervienen los proveedores de servicios, se crea un camino para una mayor intervención».

Reid, a su vez, señaló las tiendas de aplicaciones como otro punto de control, calificando el control de Apple de la distribución de aplicaciones para iPhone y iPad como «realmente problemático». Pero todavía no quería una ley de no discriminación.

McSherry también descartó la idea de una «regulación general de que todas las tiendas de aplicaciones deben hacer X».

En cambio, sugirió tratar de traer algo de competencia a estos mercados. “Tal vez podamos comenzar por deshacernos de algunas leyes que inhiben la competencia”, dijo McSherry, señalando una cláusula de la Ley de derechos de autor del milenio digital que un operador de la tienda de aplicaciones podría usar para presentar un caso legal contra cualquiera que eluda sus restricciones para instalar una aplicación fuera de la tienda.

Pero inyectar competencia en un mercado que se ha asentado en un cuasi oligopolio no es en sí una tarea fácil para los formuladores de políticas. El comentario de Reid después de una discusión sobre las políticas de la tienda de aplicaciones podría aplicarse a toda esta conversación: “Ugh. Preguntas difíciles.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38