Los jugadores tóxicos que disfrutan acosando a otros a través de las comunicaciones del juego están preparados para un despertar igualmente rudo.
Como creadores y editores de algunos de los mejores juegos cooperativos por ahí, Ubisoft y Riot Games no son ajenos a tener que lidiar con jugadores tóxicos. Afortunadamente, ambas compañías han unido sus fuerzas para Cero daño en comunicaciones (se abre en una pestaña nueva), una asociación de investigación destinada a combatir el mal comportamiento en línea. El proyecto utilizará tecnología de inteligencia artificial para rastrear, abordar y enseñar a los bots cómo identificar casos de acoso en línea para «fomentar experiencias sociales más gratificantes y evitar interacciones dañinas».
Los jugadores que se portan mal ya no podrán esconderse detrás del anonimato de sus teclados. La asociación de investigación tiene la intención de crear un sistema donde la información sobre los jugadores infractores se almacenará y luego se compartirá con toda la industria en una base de datos.
gg ez
Probablemente haya escuchado el término «tóxico» para describir ciertos tipos de jugadores en línea. Ya sea que se esté refiriendo a técnicas de juego específicas que están mal vistas por la base de jugadores en general o a un caso de abuso o intimidación genuinos, es difícil ponerle cara a un nombre de pantalla en la era del anonimato en Internet.
Aunque se ha introducido software antitrampas en muchos grandes juegos PvP en línea, estos no tienden a tomar nota de cuándo los jugadores están dañando activamente a otros jugadores con sus palabras. El estrecho espacio entre las palabrotas y el bullying suele estar ocupado por el tipo de trolls que esperabas encontrar solo en los cuentos de hadas.
yo, chatbot
En el anuncio de Ubisoft Le Forge, el director ejecutivo Yves Jacquier expresa su empatía (se abre en una pestaña nueva) para los jugadores que se encuentran en estas horribles posiciones. “El comportamiento disruptivo de los jugadores es un problema que nos tomamos muy en serio, pero también es muy difícil de resolver”, dice, refiriéndose a cómo los sistemas implementados fallan continuamente en señalar y castigar a los usuarios por sus malos modales. “Creemos que, al unirnos como industria, podremos abordar este problema de manera más efectiva”.
Y lo harán juntos, como el director ejecutivo de Riot Games, Wesley Kerr, está de acuerdo efusivamente. “Estamos comprometidos a trabajar con socios de la industria como Ubisoft que creen en la creación de comunidades seguras”, dice. Esta asociación con Ubisoft es solo un ejemplo del «compromiso y trabajo más amplios que [Riot Games are] haciendo… para desarrollar sistemas que creen interacciones saludables, seguras e inclusivas”.
El software de IA funcionará tomando registros de chat en la variedad de juegos de Ubisoft y Riot y eliminando cualquier caso de información confidencial antes de ser etiquetado de acuerdo con el comportamiento mostrado. Todos estos datos se recopilarán para preparar mejor a los bots de IA para detectar a los jugadores que burlar las pautas de la comunidad.
Claro, algunos juegos han tomado medidas para abordar los malos modales en sus juegos individuales, pero si tener tu equipo quitado en medio de tu Call of Duty Modern Warfare 2 run no suena lo suficientemente amenazante, el hecho de que cientos de personas leerán tus comentarios crueles hará que los jugadores desagradables lo piensen dos veces antes de hablar en los chats posteriores al juego.