Lo que necesitas saber
- TIME detalló cómo una empresa de San Francisco llamada Sama ayudó a construir un sistema de seguridad para ChatGPT.
- Según los informes, los empleados de Sama, con sede en Kenia, ganaban alrededor de $ 1.32 y $ 2 por hora, según la antigüedad y el desempeño.
- Posteriormente, Sama se encargó de etiquetar imágenes explícitas para un proyecto OpenAI desconocido, pero luego se retiró del contrato debido a problemas de legalidad y rompió los lazos con OpenAI.
- La historia continúa destacando el impacto humano detrás de la naciente revolución de la IA.
En una historia complicada de veztrabajo entre OpenAI, la empresa detrás ChatGPTy Sana, una empresa con sede en San Francisco que emplea a personas en Kenia llamada Sama. Sama trabaja con algunas de las empresas más grandes de la industria tecnológica, incluidas Google, Meta y Microsoft, en el etiquetado de contenido en imágenes y texto para contenido explícito.
Microsoft ya ha invertido mil millones de dólares en OpenAI, con una posible $ 10 mil millones más en camino. Microsoft planea pon IA en todo y supuestamente aprovechar ChatGPT con Bing.
Sama tiene su sede en San Fran, pero el trabajo lo realizan trabajadores en Kenia, que ganan alrededor de $ 1,32 y $ 2 por hora. Desafortunadamente, para mantener ChatGPT «seguro» para los usuarios, OpenAI necesita alimentarlo con una gran cantidad de datos de Internet, que no están filtrados. Entonces, en lugar de usar humanos para filtrar todas las cosas malas, OpenAI (y compañías como Meta con Facebook) emplean otras herramientas de IA para eliminar ese contenido del conjunto de datos automáticamente.
Pero para entrenar esas herramientas de seguridad, se necesitan humanos para indexar y etiquetar el contenido.
Como el Historia de 2019 en Facebook de The Vergeque destacó el impacto psicológico de tal contenido en los trabajadores, los empleados de Sama también sufrieron un destino similar:
“Un trabajador de Sama encargado de leer y etiquetar texto para OpenAI le dijo a TIME que sufría visiones recurrentes después de leer una descripción gráfica de un hombre que tenía relaciones sexuales con un perro en presencia de un niño pequeño. “Eso fue una tortura”, dijo. “Leerás una serie de declaraciones como esa durante toda la semana. Para cuando llega el viernes, estás perturbado por pensar en esa imagen”. La naturaleza traumática del trabajo finalmente llevó a Sama a cancelar todo su trabajo para OpenAI en febrero de 2022, ocho meses antes de lo planeado”.
El contrato total con Sama era de $200,000, y ese contrato estipulaba que pagaría “una tarifa por hora de $12.50 a Sama por el trabajo, que era entre seis y nueve veces la cantidad que los empleados de Sama en el proyecto se llevaban a casa por hora”.
Más tarde, Sama comenzó a probar un nuevo proyecto para OpenAI no relacionado con ChatGPT. Sin embargo, en lugar de texto esta vez, se trataba de imágenes, incluidas algunas ilegales según la ley estadounidense, como el abuso sexual infantil, la bestialidad, la violación, la esclavitud sexual y la muerte y la violencia. Nuevamente, los trabajadores debían ver y etiquetar el contenido para que los sistemas de OpenAI pudieran filtrar tales cosas.
Sama, sin embargo, canceló todo el trabajo con OpenAI poco después. La compañía dice que lo hizo porque le preocupaba el contenido (y las cuestiones legales). Sin embargo, se les dijo a los empleados que la investigación anterior de TIME sobre Sama y Facebook, donde los empleados de Kenia fueron utilizados como moderadores, provocó el cambio debido a las malas relaciones públicas que estaba recibiendo la empresa.
Por supuesto, mientras Sama está fuera de escena para OpenAI, el trabajo debe continuar y no está claro quién más lo está haciendo.
Toma de Windows Central
La historia de Sama, desafortunadamente, no es inusual. La moderación de contenido en Facebook también enfrentó quejas similares hace unos años, donde los moderadores tenían que ver imágenes horribles todos los días para eliminarlas del sitio. El objetivo, por supuesto, no es someter a los humanos a ese tipo de contenido y hacer que la IA y el aprendizaje automático (ML) lo hagan, pero para entrenar esos sistemas, los humanos deben ser parte del etiquetado inicial de los datos.
El otro problema es el enfoque en el pago. Si bien 1,32 dólares es terrible para cualquier persona en un mercado industrializado, para aquellos en economías emergentes como Kenia, es bastante decente, ya que se sitúa en torno al nivel salarial de una secretaria o un maestro de escuela. TIME incluso señala cómo, si bien Sama ha cortado los lazos con OpenAI, sus empleados se quedan sin trabajo. Del mismo artículo:
“… dijo un empleado de Sama en los proyectos de etiquetado de texto. “Respondimos que para nosotros era una forma de mantener a nuestras familias”. La mayoría de las aproximadamente tres docenas de trabajadores fueron trasladados a otros flujos de trabajo con salarios más bajos sin el bono de contenido explícito de $70 por mes; otros perdieron sus trabajos. Sama entregó su último lote de datos etiquetados a OpenAI en marzo, ocho meses antes de la finalización del contrato”.
Por lo tanto, el problema va en ambos sentidos. Por un lado, ningún ser humano debería tener que ver ese contenido a diario (aunque Sama afirma que se ofrecieron recursos psicológicos a los empleados); por otro, algunas personas preferirían hacer ese trabajo antes que nada.
El problema más importante es que no está claro cuál es la alternativa a todo esto si se quiere que la IA tenga futuro. Desafortunadamente, al menos inicialmente, los humanos necesitan ser parte de este proceso de entrenamiento. Aún así, el impacto en esos individuos (y la sociedad en general) es algo que no se puede medir. o ignorado