Antes de la audiencia del Congreso sobre seguridad infantil, X anuncia planes para contratar 100 moderadores en Austin


X, anteriormente Twitter, está tratando de apaciguar a los legisladores sobre las medidas de seguridad de la aplicación antes de una audiencia en el Congreso sobre las grandes tecnologías el miércoles, que se centrará en cómo empresas como X, Meta, TikTok y otras están protegiendo a los niños en línea. Durante el fin de semana, la empresa de redes sociales anunció a través de Bloomberg que contrataría personal para un nuevo centro de “Confianza y Seguridad” en Austin, Texas, que incluirá 100 moderadores de contenido de tiempo completo. La medida se produce más de un año después de que Elon Musk adquiriera la empresa, lo que le llevó a reducir drásticamente su plantilla, incluidos los equipos de confianza y seguridad, moderadores, ingenieros y otro personal.

Además de esto, Axios informó anteriormente que la directora ejecutiva de X, Linda Yaccarino, se había reunido la semana pasada con miembros bipartidistas del Senado, incluida la senadora Marsha Blackburn, antes de la próxima audiencia. Se dice que el ejecutivo discutió con los legisladores cómo X estaba luchando contra la explotación sexual infantil (ESI) en su plataforma.

Al igual que Twitter, la compañía tuvo un historial difícil a la hora de moderar adecuadamente el CSE, algo que fue objeto de una demanda por seguridad infantil en 2021. Aunque Musk heredó el problema de la dirección anterior de Twitter, junto con muchas otras luchas, ha existido la preocupación de que el El problema del CSE ha empeorado bajo su liderazgo, particularmente teniendo en cuenta los despidos de los miembros del equipo de confianza y seguridad.

Después de tomar las riendas de Twitter, Musk prometió que abordar la cuestión del contenido CSE era su prioridad número uno, pero un informe de 2022 de Business Insider indicó que todavía había publicaciones en las que la gente solicitaba el contenido. Ese año, la empresa también añadió una nueva función para informar material CSE. Sin embargo, en 2023, Musk dio la bienvenida a una cuenta que había sido prohibido por publicar imágenes de CSE anteriormente, lo que generó preguntas sobre la aplicación de sus políticas por parte de X. El año pasado, una investigación realizada por The New York Times encontró que las imágenes de CSE continuaron difundiéndose en la plataforma de X incluso después de que se notificó a la compañía, y que el material de amplia circulación que es más fácil de identificar para las empresas también permaneció en línea. Este informe contrasta marcadamente con Las propias declaraciones de X que afirmaban la empresa había abordado el problema de manera agresiva con mayores suspensiones de cuentas y cambios en la búsqueda.

El informe de Bloomberg sobre el plan de X para agregar moderadores fue escaso en detalles clave, como cuándo estaría abierto el nuevo centro, por ejemplo. Sin embargo, señaló que la empresa contrataría a los moderadores a tiempo completo.

«X no tiene una línea de negocio centrada en los niños, pero es importante que hagamos estas inversiones para seguir evitando que los delincuentes utilicen nuestra plataforma para cualquier distribución o interacción con contenido CSE», dijo al medio un ejecutivo de X, Joe Benarroch. .

X también publicó una entrada de blog el viernes detallando su progreso en la lucha contra la EIS, señalando que suspendió 12,4 millones de cuentas en 2023 para EIS, frente a 2,3 millones en 2022. También envió 850.000 informes al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) el año pasado, más de ocho veces la cantidad enviada en 2022. Si bien estas métricas están destinadas a mostrar una mayor respuesta al problema, podrían indicar que quienes buscan compartir contenido de CSE utilizan cada vez más X para hacerlo.





Source link-48