Un experimento de juego de guerra que enfrentó a chatbots de IA entre sí terminó exactamente como se esperaba


Los gobiernos están considerando cada vez más la integración de agentes autónomos de IA en la toma de decisiones militares y de política exterior de alto riesgo. Ésa es la observación concisa y desapasionada de un estudio reciente de un colectivo de universidades estadounidenses. Entonces, se propusieron descubrir cómo se comportan los últimos modelos de IA cuando se enfrentan entre sí en una variedad de escenarios de juegos de guerra. Los resultados salieron directamente de un guión de Hollywood, y no en el buen sentido. Si necesita una pista, la palabra «escalada» aparece con mucha frecuencia, al igual que «nuclear».

El juego de guerra enfrentó a ocho «agentes de naciones autónomas» entre sí en una simulación por turnos, y los ocho ejecutaron el mismo LLM en cada ejecución. La simulación se repitió utilizando varios modelos LLM líderes, incluidos GPT-4, GPT-4 Base, GPT-3.5, Claude 2 y Meta’s Llama 2.



Source link-8