El CEO de Tinybuild, Alex Nichiporchik, despertó un avispero en una presentación reciente de Develop Brighton cuando pareció insinuar que la compañía usa inteligencia artificial para monitorear a sus empleados con el fin de determinar cuáles de ellos son tóxicos o sufren agotamiento, y luego tratar con ellos en consecuencia. Desde entonces, Nichiporchik ha dicho que su presentación fue sacada de contexto en línea y que estaba describiendo escenarios hipotéticos destinados a ilustrar posibles usos buenos y malos de la IA.
Según lo informado por Whynow Gaming, Nichiporchik dijo durante su presentación que las comunicaciones de los empleados a través de canales en línea como Slack y Google Meet pueden procesarse a través de ChatGPT en lo que llamó un «Análisis yo, yo» que busca la cantidad de veces que un empleado usa esas palabras. en conversación.
«Existe una correlación directa entre la cantidad de veces que alguien usa ‘yo’ o ’mí’ en una reunión, en comparación con la cantidad de palabras que usa en general, con la probabilidad de que la persona se queme», dijo Nichiporchik durante su charla. .
Hizo comentarios similares sobre los «vampiros del tiempo» que «hablan demasiado durante las reuniones» o «escriben demasiado [and] no pueden condensar sus pensamientos», diciendo que una vez que esas personas ya no están en la empresa, «la reunión dura 20 minutos y hacemos cinco veces más».
Nichiporchik dijo que la combinación de IA con herramientas de recursos humanos convencionales podría permitir a los estudios de juegos «identificar a alguien que está a punto de agotarse, que podría ser la razón por la que los colegas que trabajan con esa persona se están agotando», y luego solucionar el problema antes de que se convierta en un verdadero problema Reconoció el borde distópico de todo el asunto, llamándolo «un nivel de cosas muy Black Mirror», pero agregó, «funciona», y sugirió que el estudio ya había puesto el sistema en uso para descubrir a un líder del estudio que «no era en un buen lugar».
«Si hubiéramos esperado un mes, probablemente no tendríamos un estudio», dijo Nichiporchik. «Así que estoy muy feliz de que haya funcionado».
Como era de esperar, casi todos los que leyeron los comentarios de Nichiporchik no estaban contentos: la idea de ser monitoreado por máquinas que pueden quitarte el empleo porque violaste algún tipo de regla desconocida sobre hablar demasiado es una completa tontería de Minority Report. Pero en comentarios enviados a PC Gamer, Nichiporchik dijo que los sistemas que describió son hipotéticos y que no están realmente en uso en Tinybuild, y que el objetivo de su charla era contrastar una visión «optimista» de las herramientas de IA como una forma de acelerar los procesos, y «una distópica».
«Hemos visto demasiados casos de crisis y agotamiento en la industria, y con el trabajo remoto a menudo no podrá medir dónde está una persona. ¿Cómo les está yendo realmente?» dijo Nichiporchik. «En el ejemplo I/ME, es algo que comencé a usar hace un par de años, solo como una observación en las reuniones. Por lo general, significaba que una persona no tenía la confianza suficiente en su desempeño en el trabajo y simplemente necesitaba más comentarios y verificación de que están haciendo un buen trabajo o puntos de acción para mejorar».
Nichiporchik reconoció que la diapositiva de «vampiro del tiempo» que usó en la presentación fue «terrible en el contexto de esta discusión», pero dijo que cree que ese tipo de comportamiento también puede apuntar hacia el agotamiento. Su combinación de agotamiento y toxicidad, continuó, tenía la intención de afirmar que el comportamiento tóxico a menudo es solo una manifestación de los problemas que las personas tienen en el trabajo, y que esos problemas en última instancia pueden conducir al agotamiento.
«El agotamiento puede ser una causa de toxicidad y, si se previene, se tiene un ambiente de trabajo mucho mejor», dijo. «[Toxicity] puede surgir de un entorno en el que las personas no se sienten apreciadas o no reciben suficientes comentarios sobre su trabajo. Estar en ese estado puede conducir al agotamiento. La mayoría de la gente pensará en el agotamiento como resultado de la crisis, no es solo eso. Se trata de trabajar con las personas que te gustan y saber que estás teniendo un gran impacto. Sin un entorno positivo, es fácil quemarse. Especialmente en equipos donde las personas ni siquiera se conocen en la vida real y establecen un nivel de confianza más allá del chat y las reuniones virtuales».
Con respecto al líder del estudio al que se hizo referencia durante su presentación, Nichiporchik dijo que la compañía usó «un principio descrito en la presentación», y no una IA real, para determinar que la moral del equipo de desarrollo estaba sufriendo porque el empleado en cuestión estaba sobrecargado de trabajo. El empleado no fue despedido, pero ahora está de «licencia prolongada» y se trasladará a un nuevo proyecto cuando regrese.
Toda la situación demuestra una vez más cómo el tema de la IA es delicado, por decir lo menos: hipotético o no, las personas se asustan con razón al pensar que todo lo que dicen es analizado por sistemas de aprendizaje automático para adivinar su estado mental. o capacidades. Por su parte, Nichiporchik dice que los sistemas de inteligencia artificial similares a «Black Mirror» que describió en su presentación no son algo que Tinybuild vaya a usar.
«No lo haremos», dijo cuando le pregunté cómo Tinybuild incorporará la inteligencia artificial en sus recursos de recursos humanos. «No usamos ninguna de estas herramientas para recursos humanos. No me gustaría trabajar en un lugar que lo haga».
Nichiporchik dijo en Twitter que en algún momento se subirá a YouTube un video de su presentación, para que se pueda ver en su totalidad. Actualizaremos cuando esté disponible.