Alex Nichiporchik, CEO de tinyBuild, editor de Hello Neighbor, propuso recientemente el potencial de usar modelos de IA para ayudar a encontrar «miembros problemáticos del equipo» e identificar a los empleados en riesgo de agotamiento, y aunque supuestamente el objetivo era ayudar a los empleados, a todos no les gustó eso.
Por qué ahora juegos informó sobre un presentación Nichiporchik dio en la conferencia Develop: Brighton el 12 de julio, que se tituló «AI en Gamedev: ¿Es seguro mi trabajo?» El resumen dice que la presentación «profundizará en cómo el editor adoptó la IA en las prácticas diarias para aumentar exponencialmente la eficiencia. Desde un aumento de 10 veces en la eficiencia de la producción de arte clave hasta el uso de la IA para recopilar datos y verificar el sentimiento de la comunidad, estamos en la revolución industrial de la era digital. Aquellos que la abrazan ya tienen una ventaja».
Además de cómo se puede usar la IA como una herramienta para las disciplinas de desarrollo de juegos como el arte y el código, el registro de la sesión señala que «habrá una reasignación de recursos humanos que cambiará y optimizará la forma en que trabajan los equipos». Es principalmente este elemento el que encendió tal fuego, con la discusión centrada en la idea de usar IA para identificar a los empleados en lugar de, no sé, verificar cómo les está yendo.
Las diapositivas de la presentación de Nichiporchik proponen un «análisis de yo, yo» que mide cuántas veces los empleados se refieren a sí mismos como individuos en lugar de como parte del equipo (con plurales como «nosotros», etc.). Esto podría hacerse, por ejemplo, alimentando conversaciones de Slack u otras aplicaciones de mensajería, como transcripciones automáticas de llamadas de Google o Zoom, a través de IA como ChatGPT después de eliminar cualquier detalle de identificación. Según los informes, Nichiporchik bromeó sobre los derechos de autor de este método durante su charla, «porque, que yo sepa, nadie ha inventado esto».
También habló sobre la búsqueda de empleados que ocupan una «cantidad desproporcionada de tiempo de reunión hablando en comparación con los colegas», personas a las que denominó «vampiros del tiempo», que es coincidentemente el mismo término que uso para los videojuegos con mucho contenido. Finalmente, la charla se incorporó a la retroalimentación de 360 grados de recursos humanos, lo que implicaría pedirles a los empleados que enumeren a los compañeros de trabajo con los que han tenido interacciones positivas y luego buscar a las personas que no aparecen en muchas o ninguna de estas listas.
Al combinar estos datos, la presentación resume, «es posible que pueda evitar el agotamiento, tanto de la persona como de su equipo». Nichiporchik también agregó que «nunca debes hacer que los miembros de tu equipo sientan que están siendo espiados», y la brecha entre esta advertencia y los métodos propuestos no cayó bien con los desarrolladores de juegos.
Si está pensando que esto suena como una pesadilla distópica sacada directamente de Black Mirror, es posible que se sienta perplejo al escuchar que la presentación incluso decía: «Bienvenido a Black Mirror». La afirmación de que «las personas tóxicas suelen ser las que están a punto de agotarse», con una diapositiva en la presentación que equipara el agotamiento con la toxicidad, también ha recibido críticas. Por decirlo suavemente, a la gente no le gusta. Para decirlo menos suavemente:
«Solo un pensamiento, tal vez haya formas menos distópicas de averiguar si tus empleados son jodidamente miserables». dicho Meghna Jayanth, diseñadora narrativa de Thirsty Suitors.
“Alguien que está quemado no es ‘normalmente tóxico’. Las personas ciertamente pueden estar quemadas y ser tóxicas, pero insinuar que el agotamiento es más a menudo como una falla de carácter es extraño». agregado Dora Breckinridge, directora de Armor Games.
«Si tienes que calificar repetidamente que sabes cuán distópico y horrible es el monitoreo de tus empleados, podrías ser el maldito problema, muchacho». dice El escritor de WB Games, Mitch Dyer.
Dan Ahern, responsable de control de calidad de Radical Forge, argumentó «No necesitas IA para encontrar ‘empleados problemáticos’: puedes encontrarlos simplemente mirando quién está tratando de hacer una mierda horrenda a nivel de nexo de tormento como esta. Realmente decepcionante que Develop permita que un desarrollador tan anti-juego hable con incluso ser alojado allí».
Esta mañana, 14 de julio, Nichiporchik llevó a Gorjeo para llamar a la historia original, que él describe como proveniente de «un lugar de odio», por haber sido «sacada de contexto» y «convenientemente» omitiendo diapositivas clave. WhyNow Gaming también ha actualizado su historia con una declaración del CEO que aclara que:
«La parte de recursos humanos de mi presentación era hipotética, de ahí la referencia a Black Mirror. Podría haberlo dejado más claro cuando se ve fuera de contexto. No monitoreamos a los empleados ni usamos la IA para identificar a los problemáticos. La presentación exploró cómo la IA se pueden usar herramientas, y algunas entran en territorio espeluznante».
«No se trata de identificar a los empleados problemáticos, se trata de brindar herramientas de recursos humanos para identificar y prevenir el agotamiento de las personas», reiteró Nichiporchik en Twitter.
«Podría haber enfatizado esto mucho más: no usamos herramientas de inteligencia artificial para recursos humanos, esta parte de la presentación era hipotética», dijo en una respuesta.
Un usuario de Twitter dicho ellos «desprecian la idea de que mis mensajes de Slack se recopilen y se introduzcan en cualquier tipo de programa», y para confusión de algunos, Nichiporchik respondió «100% de acuerdo» sin más explicaciones.
Cuando se le preguntó si los empleados de tinyBuild dieron permiso para que sus mensajes se analizaran de esta manera, Nichiporchik dijo que nadie necesitaba dar permiso porque «no fueron alimentados en ningún lado»; de nuevo, deduzco, porque todo esto era «hipotético».
«La ética de tales procesos es definitivamente cuestionable, y esta pregunta se hizo durante la sesión de preguntas y respuestas después de la presentación», dijo. dicho en otro tuit. “Es por eso que digo ‘territorio muy Black Mirror’. Esta parte era HIPOTÉTICA. Lo que podrías hacer para evitar el agotamiento».
Hipotética o no, la idea misma ha molestado a muchas personas, especialmente presentada en una conferencia como esta y de un ejecutivo en la parte superior de un estudio independiente importante. Me comuniqué con tinyBuild directamente para obtener un comentario actualizado sobre la propuesta, su postura sobre este tipo de monitoreo e intervención de empleados dirigida por IA, y si se considera implementar dicho sistema en sí.
Un Persona 5 VA fue expulsado recientemente de Twitter después de criticar un video que clonaba su voz con IA, solo días después Voces de IA en mods NSFW Skyrim provocó una discusión separada sobre el mismo tipo de tecnología de clonación.