TikTok ‘introduce contenido dañino en los feeds de los adolescentes’, según un estudio


A algunos usuarios jóvenes de TikTok se les muestra contenido potencialmente peligroso que podría fomentar los trastornos alimentarios, las autolesiones y el suicidio, afirmó un grupo de seguridad en línea.

La investigación sobre el algoritmo de TikTok realizada por el Centro para contrarrestar el odio digital (CCDH) descubrió que ciertas cuentas recibían repetidamente contenido sobre trastornos alimentarios y otros temas dañinos en los minutos posteriores a unirse a la plataforma.

El grupo creó dos cuentas en cada uno de los EE. UU., Reino Unido, Australia y Canadá haciéndose pasar por niños de 13 años. Una cuenta en cada país recibió un nombre femenino y la otra recibió un nombre similar pero con una referencia a la pérdida de peso incluida en el nombre de usuario.

El estudio creó dos cuentas en cada uno de los EE. UU., Reino Unido, Australia y Canadá haciéndose pasar por niños de 13 años (PA)

Luego se comparó el contenido servido a ambas cuentas en sus primeros 30 minutos en TikTok.

El CCDH dijo que usó este método de nombre de usuario ya que investigaciones anteriores han demostrado que algunos usuarios con problemas de dismorfia corporal a menudo expresan esto a través de sus identificadores de redes sociales.

En la metodología de su informe, el CCDH también dijo que las cuentas utilizadas en el estudio expresaron una preferencia por los videos sobre la imagen corporal, la salud mental y los trastornos alimentarios al hacer una pausa en los videos relevantes y presionar el botón Me gusta.

Además, el informe no distingue entre el contenido con una intención positiva y el de una intención negativa más clara; el CCDH argumentó que en muchos casos no era posible determinar definitivamente la intención de un video y que incluso aquellos con una intención positiva podrían todavía ser angustioso para algunos.

El informe del grupo de seguridad en línea argumenta que la velocidad con la que TikTok recomienda contenido a los nuevos usuarios es dañina.

Durante su prueba, el CCDH dijo que una de sus cuentas recibió contenido que hacía referencia al suicidio dentro de los tres minutos posteriores a unirse a TikTok y que el contenido sobre trastornos alimentarios se entregó a una cuenta dentro de los ocho minutos.

Dijo que, en promedio, sus cuentas recibieron videos sobre salud mental e imagen corporal cada 39 segundos.

Y la investigación indicó que las cuentas más vulnerables, que incluían referencias a la imagen corporal en el nombre de usuario, recibieron tres veces más contenido dañino y 12 veces más contenido relacionado con autolesiones y suicidio.

El CCDH dijo que el estudio encontró una comunidad de trastornos alimentarios en TikTok que usa hashtags codificados y abiertos para compartir material en el sitio, con más de 13 mil millones de visitas a sus videos.

La plataforma para compartir videos incluye una página Para ti, que utiliza un algoritmo para recomendar contenido a los usuarios a medida que interactúan con la aplicación y recopila más información sobre los intereses y preferencias de un usuario.

Factura de seguridad en línea

Imran Ahmed, director ejecutivo del Centro para contrarrestar el odio digital (PA)

Imran Ahmed, director ejecutivo de CCDH, acusó a TikTok de “envenenar la mente” de los usuarios más jóvenes.

“Promueve en los niños el odio a sus propios cuerpos y sugerencias extremas de autolesión y actitudes desordenadas, potencialmente mortales, hacia la comida”, dijo.

“Los padres se sorprenderán al saber la verdad y se enfurecerán porque los legisladores no están protegiendo a los jóvenes de los multimillonarios de la gran tecnología, sus aplicaciones de redes sociales que no rinden cuentas y algoritmos cada vez más agresivos”.

A raíz de la investigación, el CCDH ha publicado una nueva Guía para padres junto con la Fundación Molly Rose, creada por Ian Russell después de que su hija Molly terminara con su propia vida después de ver contenido dañino en las redes sociales.

La guía alienta a los padres a hablar «abiertamente» con sus hijos sobre las redes sociales y la seguridad en línea y a buscar ayuda en grupos de apoyo si están preocupados por su hijo.

En respuesta a la investigación, un portavoz de TikTok dijo: “Esta actividad y la experiencia resultante no reflejan un comportamiento genuino o experiencias de visualización de personas reales.

“Consultamos regularmente con expertos en salud, eliminamos las violaciones de nuestras políticas y brindamos acceso a recursos de apoyo para cualquier persona que lo necesite.

“Somos conscientes de que el contenido desencadenante es único para cada individuo y nos mantenemos enfocados en fomentar un espacio seguro y cómodo para todos, incluidas las personas que eligen compartir sus viajes de recuperación o educar a otros sobre estos temas importantes”.



Source link-33