El modelo de subcontratación de moderadores de contenidos de Meta se enfrenta a un apretón legal en España


Un tribunal español ha declarado responsable a una empresa con sede en Barcelona que trabaja como subcontratista de Meta, proporcionando servicios de moderación de contenidos para Facebook e Instagram, por el daño psicológico sufrido por un trabajador. La sentencia, dictada el jueves, según informa la prensa local, es la primera vez que un tribunal en España declara responsable a una empresa de moderación de contenidos de los trastornos mentales sufridos por un trabajador.

Un informe de El Periódico del jueves dijo que el fallo, que se dictó a principios de este mes, se refiere a una impugnación interpuesta contra el subcontratista local de Meta, CCC Barcelona Digital Services, por un brasileño de 26 años que ha estado recibiendo tratamiento psiquiátrico durante cinco años. debido a la exposición a contenidos extremos y violentos en Facebook e Instagram, como asesinatos, suicidios, terrorismo y tortura.

Se dice que el trabajador en cuestión, que comenzó a moderar contenidos de Facebook e Instagram en 2018, sufrió una serie de daños psicológicos, incluidos ataques de pánico, conductas de evitación, preocupación excesiva por sufrir enfermedades, alteraciones del sueño, dificultad para tragar y tanatofobia significativa (ansiedad debida a al miedo a la muerte), según el informe del periódico.

El juzgado de Barcelona aceptó que los problemas psíquicos que sufre el trabajador no son una enfermedad común sino un accidente de trabajo, señala el diario. El subcontratista de Meta había tramitado su ausencia del trabajo como una dolencia común y pretendía negar responsabilidad por los daños psicológicos sufridos por la revisión de contenidos violentos subidos a Facebook e Instagram.

En una publicación en las redes sociales en respuesta al fallo judicial, el bufete de abogados que representa al trabajador, Espacio Jurídico Feliu Fins, describió el resultado como una gran victoria para cualquier trabajador que sufra problemas de salud mental como resultado del trabajo que realiza.

«Los meta y los medios sociales en general deben reconocer la magnitud de este problema y deben cambiar su estrategia», escribió el bufete de abogados en la publicación. [in Spanish; this is a machine translation]. “En lugar de seguir una estrategia de negar el problema, deben aceptar que esta horrible realidad que sufren estos trabajadores es tan real como la vida misma.

“El día que lo asuman y lo enfrenten, ese día, todo cambiará. Mientras esto no suceda, nos encargaremos de que esto suceda a través del sistema legal. Iremos paso a paso, sin prisas, pero sin dudarlo. Y sobre todo, con total determinación de que vamos a ganar”.

La subcontratación de la revisión de contenidos tóxicos por parte de Meta a varios subcontratistas externos, que proporcionan decenas de trabajadores (generalmente) mal pagados para ser utilizados como filtros humanos para la violencia extrema y otros actos horribles subidos a sus redes sociales ha sido una fuente de preocupación. historias durante años. Y, sin embargo, la práctica continúa.

En mayo de 2020, Meta acordó pagar 52 millones de dólares para resolver una demanda colectiva en EE. UU. interpuesta por moderadores de contenido que trabajaban para terceros que prestaban servicios de revisión de contenido para sus redes sociales y que alegaban que la revisión de imágenes gráficas y violentas les había llevado a desarrollar enfermedades postraumáticas. trastorno de estrés.

La empresa también se enfrenta a un litigio en África, donde un moderador que trabaja para Sama, un subcontratista de Meta en Kenia, está demandando a ambas empresas por acusaciones que también incluyen no proporcionar apoyo psicosocial y de salud mental «adecuado».

Meta declinó hacer comentarios sobre el fallo contra su subcontratista en España. Pero el gigante de las redes sociales proporcionó información general sobre su estrategia para subcontratar la moderación de contenido, diciendo que sus contratos con terceros con los que trabaja en la revisión de contenido contienen expectativas de que tomarán disposiciones en áreas que incluyen asesoramiento, capacitación y otro tipo de apoyo a los trabajadores.

El gigante tecnológico también dijo que sus contratos requieren que los subcontratistas brinden soporte in situ las 24 horas, los 7 días de la semana, con profesionales capacitados, además de ofrecer servicio de guardia y acceso a atención médica privada desde el primer día de empleo.

Meta también señaló que proporciona soluciones técnicas a los subcontratistas que tienen como objetivo permitir a los revisores de contenido limitar su exposición al material gráfico que se les pide que moderen tanto como sea posible. Dijo que los revisores pueden personalizar estas herramientas para que el contenido gráfico aparezca completamente borroso, en blanco y negro, borroso en el primer fotograma, reproducido sin sonido o desactivado la reproducción automática.

Sin embargo, los comentarios de fondo de la empresa no abordaron la posibilidad de que los servicios de soporte y las herramientas de evaluación se vean socavados por las estrictas cuotas de productividad y desempeño que los subcontratistas pueden imponer a los revisores, lo que podría, en la práctica, dificultar que estos trabajadores accedan al apoyo adecuado. y al mismo tiempo seguir funcionando al ritmo exigido por sus empleadores.

En octubre, el periódico de Barcelona, ​​La Vanguardia, informó que alrededor del 20% del personal de CCC Barcelona Digital Services estaba de baja como resultado de un trauma psicológico por revisar contenido tóxico. En el artículo, el diario cita a un trabajador que califica de “muy insuficiente” el apoyo brindado por su empleador y subcontratista de Meta.

Otro informe del mismo mes, en El Nacional, analiza una alta “tasa de éxito” (98%) que se les dice a los trabajadores que deben lograr, lo que significa que las decisiones de cada moderador deben coincidir con las decisiones de sus compañeros de trabajo. y el del auditor superior, la gran mayoría de las veces, con el riesgo de ser despedido si su tarifa baja, según el mismo informe.

El uso de herramientas de detección que ocultan total o parcialmente el contenido que se va a revisar podría claramente dificultar que los revisores cumplan con los exigentes objetivos de desempeño. Por lo tanto, los trabajadores pueden considerar como un riesgo el uso de herramientas que podrían reducir la precisión de sus evaluaciones, y verlos fallar detrás de sus pares, ya que eso podría poner en riesgo su continuidad en el empleo, disuadiéndolos efectivamente de tomar acciones que podrían protegerlos mejor de la exposición a Contenido psicológicamente dañino.

El trabajo por turnos impuesto habitualmente a los trabajadores de moderación de contenidos también puede contribuir al desarrollo de problemas de salud mental, ya que se sabe que las alteraciones de los patrones de sueño contribuyen al estrés. Además, el uso rutinario de trabajadores jóvenes y mal pagados en granjas de moderación de contenido implica que el modelo incluye un alto riesgo de agotamiento, lo que sugiere que se trata de una industria de puertas cerradas que se configura en torno a la gestión de la toxicidad a través de una alta rotación; o, esencialmente, el agotamiento como servicio subcontratado.

Sin embargo, las sentencias legales que imponen requisitos a los revisores de contenido externos para que se ocupen de la salud mental de los trabajadores podrían poner límites al modelo.

Una solicitud de comentarios enviada a Telus, la empresa canadiense propietaria de CCC Barcelona Digital Services, no había recibido respuesta al cierre de esta edición.



Source link-48