Twitter tenía un nuevo plan para luchar contra el extremismo, luego llegó Elon


Había sido una larga pandemia para el equipo de investigación de Twitter. Con la tarea de resolver algunos de los problemas más difíciles de la plataforma relacionados con el acoso, el extremismo y la desinformación, el personal se fugó a Napa Valley en noviembre de 2021 para un retiro de la empresa. A pesar de un cambio tumultuoso en el liderazgo (Jack Dorsey había renunciado recientemente y nombró al exdirector de tecnología Parag Agrawal para que ocupara su lugar), el grupo se sintió unido, incluso esperanzado. Después de meses de luchar contra los malos en línea, los empleados se tomaron un momento para relajarse. “Finalmente sentimos que teníamos un equipo cohesionado”, dice un investigador.

Pero en el almuerzo de despedida del último día, los teléfonos de las personas comenzaron a sonar con noticias alarmantes: su jefe, Dantley Davis, vicepresidente de diseño de Twitter, había sido despedido. Nadie sabía que venía. “Era como una película”, dice un asistente, que pidió permanecer en el anonimato porque no está autorizado a hablar públicamente sobre la empresa. “La gente empezó a llorar. Estaba sentado allí comiendo un croissant y estaba como, ‘¿Qué pasa con el estado de ánimo?’ ”

La noticia presagiaba una espiral descendente para la organización de investigación. Aunque el grupo estaba acostumbrado a las reorganizaciones, una reorganización en medio de una salida destinada a unir al equipo se sintió profundamente simbólica.

La agitación llegó a un punto crítico en abril, cuando Elon Musk firmó un acuerdo para comprar Twitter. Las entrevistas con empleados actuales y anteriores, junto con 70 páginas de documentos internos, sugieren que el caos que rodea la adquisición de Musk llevó a algunos equipos al punto de ruptura, lo que llevó a numerosos investigadores de salud a renunciar, y algunos dijeron que a sus colegas se les dijo que quitaran prioridad a los proyectos para luchar contra el extremismo en favor de centrarse en los bots y el spam. Es posible que el acuerdo de Musk ni siquiera se concrete, pero los efectos en los esfuerzos de salud de Twitter ya son claros.

El equipo de salud, que alguna vez se encargó de fomentar conversaciones civilizadas en la famosa plataforma incívica, pasó de 15 empleados de tiempo completo a dos.


En 2019, Jack Dorsey hizo una pregunta fundamental sobre la plataforma que había ayudado a crear: «¿Podemos realmente medir la salud de la conversación?»

En el escenario de una conferencia TED en Vancouver, el director ejecutivo con gorro habló con seriedad sobre invertir en sistemas automatizados para detectar proactivamente el mal comportamiento y «quitar la carga de la víctima por completo».

Ese verano, la compañía comenzó a formar un equipo de investigadores de salud para llevar a cabo la misión de Dorsey. Su charla convenció a personas que habían estado trabajando en la academia, o para empresas tecnológicas más grandes como Meta, a unirse a Twitter, inspirados por la perspectiva de trabajar hacia un cambio social positivo.

Cuando el proceso funcionó según lo previsto, los investigadores de salud ayudaron a Twitter a pensar en posibles abusos de nuevos productos. En 2020, Twitter estaba trabajando en una herramienta llamada “no mencionar” que permite a los usuarios limitar quién puede responder a sus tuits. Los investigadores realizaron un ejercicio de «equipo rojo», reuniendo a los empleados de toda la empresa para explorar cómo se podría hacer un mal uso de la herramienta. La no mención podría permitir que “personas poderosas [to] suprimir la disidencia, la discusión y la corrección” y permitir que “los acosadores busquen contacto con sus objetivos [to] obligar a los objetivos a responder en persona”, escribió el equipo rojo en un informe interno.

Pero el proceso no siempre fue tan fluido. En 2021, el exjefe de producto de Twitter, Kayvon Beykpour, anunció que la prioridad número uno de la empresa era lanzar Spaces. («Fue un asalto completo para matar a Clubhouse», dice un empleado). El equipo asignado al proyecto trabajó horas extra tratando de sacar la característica y no programó un ejercicio del equipo rojo hasta el 10 de agosto, tres meses después. lanzar. En julio, el ejercicio fue cancelado. Spaces se puso en marcha sin una evaluación exhaustiva de los riesgos clave, y los nacionalistas blancos y los terroristas inundaron la plataforma, como los El Correo de Washington reportado.

Cuando Twitter finalmente realizó un ejercicio de equipo rojo para Spaces en enero de 2022, el informe concluyó: “No priorizamos identificar y mitigar los riesgos de salud y seguridad antes de lanzar Spaces. Este Equipo Rojo se produjo demasiado tarde. A pesar de las inversiones críticas en el primer año y medio de construcción de Spaces, hemos sido en gran medida reactivos a los daños del mundo real infligidos por actores malintencionados en Spaces. Hemos confiado demasiado en el público en general para identificar los problemas. Hemos lanzado productos y características sin una exploración adecuada de las posibles implicaciones para la salud”.

A principios de este año, Twitter se retractó de sus planes de monetizar contenido para adultos después de que un equipo rojo descubriera que la plataforma no había abordado adecuadamente el material de explotación sexual infantil. Era un problema del que los investigadores habían estado advirtiendo durante años. Los empleados dijeron que los ejecutivos de Twitter estaban al tanto del problema, pero señalaron que la empresa no ha asignado los recursos necesarios para solucionarlo.


A fines de 2021, los investigadores de salud de Twitter habían pasado años jugando al topo con los malos en la plataforma y decidieron implementar un enfoque más sofisticado para lidiar con el contenido dañino. Externamente, la compañía fue criticada regularmente por permitir que grupos peligrosos se descontrolaran. Pero internamente, a veces se sentía como si ciertos grupos, como los teóricos de la conspiración, también fueran expulsados ​​​​de la plataforma. pronto — antes de que los investigadores pudieran estudiar su dinámica.

“El antiguo enfoque era casi cómicamente ineficaz y muy reactivo: un proceso manual de jugar a atrapar”, dice un exempleado, que pidió permanecer en el anonimato porque no está autorizado a hablar públicamente sobre la empresa. “Simplemente definir y atrapar a los ‘chicos malos’ es un juego perdido”.

En cambio, los investigadores esperaban identificar a las personas que estaban a punto de interactuar con tweets dañinos y empujarlos hacia un contenido más saludable mediante mensajes emergentes e intersticiales. “El piloto permitirá que Twitter identifique y aproveche las señales de comportamiento, en lugar del contenido, y llegue a los usuarios en riesgo de daño con la redirección a contenido y servicios de apoyo”, se lee en un informe interno del proyecto, visto por el borde.

Los investigadores de Twitter se asociaron con Moonshot, una empresa que se especializa en el estudio de extremistas violentos, y lanzaron un proyecto llamado Redirigir, inspirado en el trabajo que Google y Facebook habían realizado para frenar la propagación de comunidades dañinas. En Google, este trabajo había resultado en una campaña sofisticada para dirigirse a las personas buscando contenido extremista con anuncios y videos de YouTube destinados a desacreditar los mensajes extremistas. Twitter planeó hacer lo mismo.

El objetivo era hacer que la empresa pasara de simplemente reaccionar ante cuentas y publicaciones malas a guiar de manera proactiva a los usuarios hacia un mejor comportamiento.

“Los esfuerzos de Twitter para detener a los grupos dañinos tienden a centrarse en definir estos grupos, designarlos dentro de un marco de políticas, detectar su alcance (a través de la afiliación y los comportamientos del grupo) y suspender o eliminar a aquellos dentro de la cohorte”, se lee en un resumen del proyecto interno. “Este proyecto busca, en cambio, comprender y abordar los comportamientos de los usuarios en sentido ascendente. En lugar de centrarnos en designar cuentas o contenido malos, buscamos comprender cómo los usuarios encuentran contenido grupal dañino en las cuentas y luego redirigir esos esfuerzos”.

En la fase uno del proyecto, que comenzó el año pasado, los investigadores se centraron en tres comunidades: extremismo violento por motivos raciales o étnicos, extremismo violento antigubernamental o antiautoridad e incels. En un estudio de caso sobre el movimiento boogaloo, un grupo de extrema derecha centrado en incitar a una segunda Guerra Civil estadounidense, Moonshot identificó a 17 personas influyentes que tenían un alto compromiso dentro de la comunidad y usaban Twitter para compartir y difundir su ideología.

El informe describió posibles puntos de intervención: uno cuando alguien trató de buscar un término de boogaloo y otro cuando estaba a punto de interactuar con una pieza de contenido de boogaloo. “El enfoque de Moonshot para la identificación de la comunidad central podría resaltar a los usuarios que se mueven hacia esta esfera de influencia, lo que provocaría un mensaje intersticial de Twitter”, dice el informe.

El equipo también sugirió agregar un mensaje emergente antes de que los usuarios pudieran retuitear contenido extremista. Las intervenciones estaban destinadas a agregar fricción al proceso de encontrar e interactuar con tweets dañinos. Bien hecho, mitigaría el impacto del contenido extremista en Twitter, lo que dificultaría que los grupos recluten nuevos seguidores.

Sin embargo, antes de que ese trabajo pudiera implementarse por completo, Musk llegó a un acuerdo con el directorio de Twitter para comprar la compañía. Poco después, los empleados que habían estado al frente de la sociedad Moonshot se fueron. Y en los meses transcurridos desde que Musk firmó el acuerdo, el equipo de investigación de salud casi se ha evaporado, pasando de 15 empleados a solo dos.

“Vender la empresa a Elon Musk fue la guinda del pastel de un historial mucho más largo de decisiones de los altos mandos de la empresa que mostraban que la seguridad no era una prioridad”, dice un empleado.

Múltiples exinvestigadores dijeron que la agitación asociada con la oferta de Musk para comprar la compañía fue un punto de inflexión y los llevó a decidir seguir con otro trabajo.

“El caos del acuerdo me hizo darme cuenta de que no quería trabajar para un Twitter privado propiedad de Musk, pero tampoco quería trabajar para un Twitter público que no fuera propiedad de Musk”, dijo un ex. empleado dice. “Simplemente ya no quería trabajar para Twitter”.

La fase dos del proyecto Redirect, que habría ayudado a Twitter a comprender qué intervenciones funcionaron y cómo los usuarios realmente interactuaban con ellas, recibió financiación. Pero cuando llegó el dinero, no había investigadores disponibles para supervisarlo. A algunos empleados que se quedaron supuestamente se les dijo que quitaran prioridad a Redirect en favor de proyectos relacionados con bots y spam, en los que Musk se ha centrado en su intento de retractarse del trato.

La portavoz de Twitter, Lauren Alexander, se negó a comentar sobre el registro.

Un empleado capturó la frustración del equipo en un tuit: «Completamente desinteresado en lo que Jack o cualquier otro c-suiter tiene que decir sobre esta adquisición», escribió el empleado, capturando un artículo sobre cuánto defendían el CEO de Twitter, Parag Agrawal, y el exCEO Jack Dorsey. ganar con el trato con Musk. “Que todos se caigan por un tramo muy largo de escaleras”. (El empleado se negó a comentar).

Según los trabajadores actuales, se informó que el tuit era una amenaza para un compañero de trabajo y el empleado fue despedido.



Source link-37