Las plataformas están luchando contra el abuso en línea, pero no del tipo correcto


Somos todos en riesgo de sufrir acoso ocasional, pero para algunos, el acoso es una parte cotidiana de la vida en línea. En particular, muchas mujeres en la vida pública experimentan abuso crónico: ataques continuos, implacables y, a menudo, coordinados que son amenazantes y, con frecuencia, sexuales y explícitos. La primera ministra escocesa, Nicola Sturgeon, y la exprimera ministra de Nueva Zelanda, Jacinda Ardern, por ejemplo, han sufrido abusos ampliamente denunciados en línea. De manera similar, un informe reciente de la UNESCO que detalla la violencia en línea contra mujeres periodistas encontró que la periodista ganadora del Premio Nobel Maria Ressa y la periodista británica Carole Cadwalladr enfrentaron ataques que fueron “constantes y sostenidos, con varios picos por mes que generaron abusos intensos”.

Nosotros, dos investigadores y profesionales que estudiamos el uso responsable de la tecnología y trabajamos con empresas de redes sociales, llamamos a esto abuso crónico, porque no hay un solo momento desencadenante, debate o posición que desencadene el fuego constante de los ataques. Pero gran parte de la conversación sobre el abuso en línea y, de manera más crítica, las herramientas que tenemos para abordarlo, se centra en lo que llamamos el agudo casos. El abuso agudo suele ser una respuesta a un debate, una posición o una idea: un tuit polarizador, un nuevo libro o artículo, alguna declaración pública. El abuso agudo finalmente desaparece.

Las plataformas tienen recursos dedicados para ayudar a abordar el abuso agudo. Los usuarios bajo ataque pueden bloquear a las personas directamente y silenciar el contenido u otras cuentas, movimientos que aseguran que puedan existir en la plataforma pero los protegen del contenido que no quieren ver. Pueden limitar las interacciones con personas fuera de sus redes utilizando herramientas como mensajes cerrados y cuentas privadas. También hay aplicaciones de terceros que intentan abordar esta brecha al silenciar o filtrar contenido de manera proactiva.

Estas herramientas funcionan bien para lidiar con ataques episódicos. Pero para los periodistas, políticos, científicos, actores (en realidad, cualquiera que dependa de la conexión en línea para hacer su trabajo) son lamentablemente insuficientes. El bloqueo y el silenciamiento hacen poco por los ataques coordinados en curso, ya que grupos enteros mantienen un flujo continuo de acoso desde diferentes cuentas. Incluso cuando los usuarios bloquean con éxito a sus acosadores, el impacto continuo en la salud mental de ver una avalancha de ataques es inmenso; en otras palabras, el daño ya está hecho. Estas son herramientas retroactivas, útiles solo después de que alguien haya sido dañado. Cerrar los mensajes directos y hacer que una cuenta sea privada puede proteger a la víctima de un ataque agudo; pueden hacerlo público nuevamente después de que el acoso disminuya. Pero estas no son opciones realistas para las personas abusadas crónicamente, ya que con el tiempo solo eliminan a las personas del discurso en línea más amplio.

Las plataformas deben hacer más para mejorar la seguridad desde el diseño, incluidas las soluciones iniciales, como mejorar la moderación del contenido humano, tratar las quejas de los usuarios de manera más efectiva y presionar por mejores sistemas para cuidar a los usuarios que enfrentan abuso crónico. Organizaciones como Glitch están trabajando para educar a las personas sobre el abuso en línea de mujeres y personas marginadas mientras brindan recursos para ayudar a las personas a enfrentar estos ataques, incluida la adaptación de técnicas de capacitación de espectadores para el mundo en línea, presionando a las empresas de plataformas para que mejoren sus mecanismos de denuncia e instando a un cambio de política. .

Pero los juegos de herramientas y la orientación, si bien son extremadamente útiles, aún colocan la carga de la responsabilidad sobre los hombros de los abusados. Los formuladores de políticas también deben hacer su parte para responsabilizar a las plataformas de combatir el abuso crónico. El proyecto de ley de seguridad en línea del Reino Unido es un mecanismo que podría responsabilizar a las plataformas por reprimir el abuso. El proyecto de ley obligaría a las grandes empresas a hacer que sus políticas sobre la eliminación de contenido abusivo y el bloqueo de los abusadores sean más claras en sus términos de servicio. También requeriría legalmente que las empresas ofrezcan a los usuarios herramientas opcionales que les ayuden a controlar el contenido que ven en las redes sociales. Sin embargo, el debate del proyecto de ley ha debilitado algunas protecciones propuestas para los adultos en nombre de la libertad de expresión, y el proyecto de ley todavía se enfoca en herramientas que ayudan a los usuarios a tomar decisiones, en lugar de herramientas y soluciones que funcionan para detener el abuso aguas arriba.



Source link-46