Un nuevo estudio sobre IA ha encontrado una limitaci\u00f3n inherente en las redes de generaci\u00f3n actual, como las empleadas por ChatGPT y Midjourney. Parece que las redes de IA entrenadas en salidas de IA (como el texto creado por ChatGPT o la salida de imagen creada por un modelo de difusi\u00f3n estable) tienden a volverse \u00abLOCAS\u00bb despu\u00e9s de cinco ciclos de entrenamiento con datos generados por IA. Como puede ver en las im\u00e1genes de arriba, el resultado son salidas extra\u00f1amente mutadas que no reflejan la realidad.<\/p>\n
MAD, abreviatura de Model Autophagy Disorder, es el acr\u00f3nimo utilizado por los investigadores de la Universidad de Rice y Stanford que participaron en el estudio para describir c\u00f3mo los modelos de IA y la calidad de sus resultados colapsan cuando se entrenan repetidamente con datos generados por IA. Como su nombre lo indica, el modelo esencialmente \u00abse come a s\u00ed mismo\u00bb, no muy diferente del Ouroboros del mito. Pierde informaci\u00f3n sobre las colas (los extremos) de la distribuci\u00f3n de datos original y comienza a generar resultados que est\u00e1n m\u00e1s alineados con la representaci\u00f3n media de los datos, como la serpiente que se devora su propia cola.<\/p>\n
\nEn el trabajo dirigido por @iliaishacked, nos preguntamos qu\u00e9 sucede a medida que entrenamos nuevos modelos generativos con datos generados en parte por modelos anteriores. Mostramos que los modelos generativos pierden informaci\u00f3n sobre la distribuci\u00f3n real, con el modelo colapsando a la representaci\u00f3n media de datos pic .twitter.com\/OFJDZ4QofZ1 de junio de 2023<\/a><\/p>\n<\/blockquote>\n