ChatGPT está remodelando el trabajo en grupo


Si bien algunos trabajadores pueden evitar la IA, la tentación de usarla es muy real para otros. El campo puede ser «perro se come perro», dice Bob, lo que hace que las herramientas que ahorran mano de obra sean atractivas. Para encontrar los trabajos mejor pagados, los trabajadores de la multitud utilizan con frecuencia guiones que señalan tareas lucrativas, revisan las reseñas de los solicitantes de tareas o se unen a plataformas mejor pagadas que examinan a los trabajadores y solicitantes.

CloudResearch comenzó a desarrollar un detector ChatGPT interno el año pasado después de que sus fundadores vieron el potencial de la tecnología para socavar su negocio. El cofundador y CTO, Jonathan Robinson, dice que la herramienta implica capturar pulsaciones de teclas, hacer preguntas a las que ChatGPT responde de manera diferente a las personas y vincular a los humanos para revisar las respuestas de texto de forma libre.

Otros argumentan que los investigadores deberían encargarse de establecer la confianza. Justin Sulik, un investigador de ciencias cognitivas de la Universidad de Munich que usa CloudResearch para buscar participantes, dice que la decencia básica (pago justo y comunicación honesta) es muy útil. Si los trabajadores confían en que aún recibirán el pago, los solicitantes podrían simplemente preguntar al final de una encuesta si el participante usó ChatGPT. “Creo que se culpa injustamente a los trabajadores en línea por hacer cosas que los trabajadores de oficina y los académicos podrían hacer todo el tiempo, lo que solo hace que nuestros propios flujos de trabajo sean más eficientes”, dice Sulik.

Ali Alkhatib, un investigador de computación social, sugiere que podría ser más productivo considerar cómo los trabajadores colectivos mal pagados podrían incentivar el uso de herramientas como ChatGPT. “Los investigadores necesitan crear un entorno que permita a los trabajadores tomarse el tiempo y ser realmente contemplativos”, dice. Alkhatib cita el trabajo de investigadores de Stanford que desarrollaron una línea de código que rastrea cuánto tiempo lleva una microtarea, para que los solicitantes puedan calcular cómo pagar un salario mínimo.

El diseño de estudio creativo también puede ayudar. Cuando Sulik y sus colegas querían medir la ilusión de contingencia, una creencia en la relación causal entre eventos no relacionados, pidieron a los participantes que movieran un ratón de dibujos animados alrededor de una cuadrícula y luego adivinaran qué reglas les dieron el queso. Aquellos propensos a la ilusión eligieron reglas más hipotéticas. Parte de la intención del diseño era mantener las cosas interesantes, dice Sulik, para que los Bobs del mundo no se desconecten. “Y nadie va a entrenar un modelo de IA solo para jugar su pequeño juego específico”.

La sospecha inspirada en ChatGPT podría dificultar las cosas para los trabajadores de la multitud, que ya deben estar atentos a las estafas de phishing que recopilan datos personales a través de tareas falsas y dedican tiempo no remunerado a realizar pruebas de calificación. Después de que un repunte en los datos de baja calidad en 2018 desencadenara el pánico de los bots en Mechanical Turk, aumentó la demanda de herramientas de vigilancia para garantizar que los trabajadores fueran quienes decían ser.

Phelim Bradley, director ejecutivo de Prolific, una plataforma de trabajo colectivo con sede en el Reino Unido que examina a los participantes y solicitantes, dice que su empresa comenzó a trabajar en un producto para identificar a los usuarios de ChatGPT y educarlos o eliminarlos. Pero tiene que mantenerse dentro de los límites de las leyes de privacidad del Reglamento General de Protección de Datos de la UE. Algunas herramientas de detección “podrían ser bastante invasivas si no se realizan con el consentimiento de los participantes”, dice.



Source link-46