Acabo de tener una conversación con un NPC del juego que fácilmente podría aparecer como un guión. Excepto que no lo fue en absoluto. Hice una pregunta, el NPC respondió, y todo gracias a la tecnología ACE de Nvidia y Convai.
Es posible que hayas visto a Nvidia ACE en acción durante la transmisión de discurso especial de la compañía. Es esencialmente una tecnología que permite a los NPC del juego reaccionar y responder a los jugadores en tiempo real, con diálogos de voz y animaciones. Nvidia ha estado mostrando la misma demostración tecnológica llamada Kairos, que tiene lugar dentro de un restaurante de ramen en un mundo ciberpunk, desde que se anunció ACE en Computex. En CES 2024, pude probarlo por mí mismo.
En la demostración técnica, que está construida en Unreal Engine 5 y utiliza una plataforma de la startup de inteligencia artificial Convai, juegas como Kai y puedes hablar con Jin y Nova, dos NPC en el mundo cyberpunk de la demostración.
En primer lugar, di un mensaje que se ingresó en el sistema de inteligencia artificial subyacente de la demostración. Esto se usará para dirigir la conversación entre los dos NPC incluso antes de que interactúe con ellos. Elegí lo primero que me vino a la cabeza, que por alguna razón fue andar en patineta. Eso significaba que cuando me acercaba a ambos personajes, podía escucharlos discutir los puntos más finos de las lesiones del skate.
Esa es una pequeña parte del sistema impulsado por IA. Principalmente se trata de responderte a ti, como un personaje más en el mundo. Esto requiere un micrófono para hacer preguntas directamente y hablar con los NPC.
A continuación se muestra un video mío hablando con Jin y pidiendo ramen. Es bastante extraño mantener una conversación con un NPC como este, pero también es bastante divertido. Hay un ligero retraso en responderle, lo que parece una pausa incómoda, pero, sinceramente, el retraso fue mínimo y la precisión general de las respuestas bastante buena.
@pcgamer_mag ♬ sonido original – PC Gamer
Tengo muchas ganas de ver hasta dónde podría llegar este tipo de tecnología. Por un lado, podría significar el fin de los NPC que deambulan por mundos abiertos murmurando las mismas tres frases una y otra vez. Podría dar nueva vida a los NPC, a menudo robóticos, y establecer conexiones más fuertes con los personajes principales de los juegos. Lo que me viene a la mente son los pocos personajes principales con los que puedes pasar el rato en Cyberpunk 2077. Simplemente descubrir su historia de fondo a través de una conversación sin guión podría ser una forma mucho menos formulada de experimentar todo eso.
Por otro lado, si estas conversaciones no tienen ningún propósito (es decir, no hay construcción de misiones o puntos de historia de los cuales hablar), podrían generar algunas conversaciones triviales que se vuelven obsoletas bastante rápido. No creo que ese sea el caso en última instancia (todo el trasfondo de los personajes está diseñado y programado), pero se necesitará algo de sutileza por parte del desarrollador para que estos NPC lleven la conversación hacia algo pertinente a la historia o la construcción de un juego. una historia de fondo.
La demostración impulsada por Unreal Engine 5 utiliza un par de modelos clave, incluido el reconocimiento automático de voz, texto a voz, Audio2Face y Nvidia NeMo, junto con una plataforma de una startup de inteligencia artificial llamada Convai que integra conciencia espacial, acciones y NPC-to. -Interacciones con NPC, como la que mencioné sobre el skate.
Las acciones y la conciencia espacial también son geniales. Podría preguntarle a la IA sobre el mundo que los rodea y ellos responderían con historias e información. También podría pedir otro plato de ramen y pedirle a Jin que prepare uno. O pedirle que apague las luces y él se marcharía y lo haría. Estas IA son en realidad increíblemente serviciales, pero seguramente se necesitará algún tipo de medidor de descaro para crear personajes más realistas.
Tengo muchas ganas de ver cómo alguien toma esta tecnología y la convierte en algo que parezca un buen uso de la tecnología. Un juego de realidad virtual quizás sería una buena opción. Y estoy tratando de no estancarme pensando en cómo esto también podría ayudar a crear algunas experiencias bastante horribles. Luego está la cuestión de cómo se utilizan las voces de los actores de doblaje y qué opinan cuando se trata de IA.
Nvidia dice que podrías conectar esto a una búsqueda en Google si quisieras y hacer que la IA te escupe datos, pero eso parece subestimar lo que podría ser una tecnología bastante fascinante con un diseño de juego efectivo y personajes bien escritos. Tendremos que esperar y ver qué sale de ACE una vez que la tecnología llegue a manos de los desarrolladores.
_____________________________________
La cobertura de PC Gamer sobre CES 2024 se publica en asociación con Asus Republic of Gamers.