Los trabajadores que hicieron que ChatGPT fuera menos dañino piden a los legisladores que detengan la supuesta explotación por parte de Big Tech


Los trabajadores de Kenia que ayudaron a eliminar contenido dañino en ChatGPT, el motor de búsqueda inteligente de OpenAI que genera contenido en función de las indicaciones de los usuarios, presentaron una petición ante los legisladores del país llamándolos a iniciar investigaciones sobre la moderación de contenido de subcontratación de Big Tech y el trabajo de IA en Kenia.

Los peticionarios quieren que se investigue la “naturaleza del trabajo, las condiciones de trabajo y las operaciones” de las grandes empresas tecnológicas que subcontratan servicios en Kenia a través de empresas como Sama, que está en el centro de varios litigios sobre supuesta explotación, antisindicalismo. y despidos masivos ilegales de moderadores de contenido.

La petición sigue a un informe de Time que detallaba la remuneración lamentable de los trabajadores de Sama que hacían que ChatGPT fuera menos tóxico y la naturaleza de su trabajo, que requería leer y etiquetar texto gráfico, incluida la descripción de escenas de asesinato, bestialidad y violación. El informe indicó que, a fines de 2021, OpenAI contrató a Sama para «etiquetar descripciones textuales de abuso sexual, discurso de odio y violencia» como parte del trabajo para construir una herramienta (que se incorporó a ChatGPT) para detectar contenido tóxico.

Los trabajadores dicen que fueron explotados y no se les ofreció apoyo psicosocial, pero estuvieron expuestos a contenido dañino que los dejó con una «enfermedad mental grave». Los trabajadores quieren que los legisladores “regulen la subcontratación de tecnología dañina y peligrosa” y que protejan a los trabajadores que lo hacen.

También les piden que promulguen una legislación que regule la “tercerización de trabajos tecnológicos dañinos y peligrosos y que proteja a los trabajadores que participan en tales compromisos”.

Sama dice que cuenta con el 25% de las empresas Fortune 50, incluidas Google y Microsoft, como sus clientes. El negocio principal de la empresa con sede en San Francisco es la anotación, curación y validación de datos de visión artificial. Emplea a más de 3000 personas en todos sus centros, incluido el de Kenia. A principios de este año, Sama abandonó los servicios de moderación de contenido para concentrarse en la anotación de datos de visión artificial, despidiendo a 260 trabajadores.

La respuesta de OpenAI a la supuesta explotación reconoció que el trabajo fue un desafío y agregó que había establecido y compartido estándares éticos y de bienestar (sin dar más detalles sobre las medidas exactas) con sus anotadores de datos para que el trabajo se entregara «humanamente y voluntariamente».

Señalaron que para construir una inteligencia general artificial segura y beneficiosa, la anotación de datos humanos fue una de las muchas corrientes de su trabajo para recopilar comentarios humanos y guiar los modelos hacia un comportamiento más seguro en el mundo real.

“Reconocemos que este es un trabajo desafiante para nuestros investigadores y trabajadores de anotaciones en Kenia y en todo el mundo: sus esfuerzos para garantizar la seguridad de los sistemas de IA han sido inmensamente valiosos”, dijo el portavoz de OpenAI.

Sama le dijo a TechCrunch que estaba abierto a trabajar con el gobierno de Kenia «para garantizar que todas las empresas cuenten con protecciones básicas». Dijo que da la bienvenida a las auditorías de terceros de sus condiciones de trabajo, y agregó que los empleados tienen múltiples canales para plantear inquietudes y que ha “realizado múltiples evaluaciones y auditorías externas e internas para garantizar que estamos pagando salarios justos y brindando un ambiente de trabajo que es digno.”



Source link-48