Un investigador que participó en la creación de ChatGPT advirtió que la IA bien podría conducir a la perdición de la humanidad, o al menos hay un 50% de posibilidades de que ese escenario se desarrolle.
Business Insider (se abre en una pestaña nueva) informa que Paul Christiano, quien dirigió el equipo de alineación del modelo de lenguaje en OpenAI, pero desde entonces dejó la compañía y ahora dirige el Centro de Investigación de Alineación sin fines de lucro, hizo la advertencia en Bankless (se abre en una pestaña nueva) podcast.
Durante la entrevista, los anfitriones mencionaron la posibilidad de un «escenario fatal de Eliezer Yudkowsky», siendo Yudkowsky un conocido escéptico de la IA durante muchos años (en realidad, un par de décadas).
Christiano le dijo a los anfitriones: “Eliezer está en esta transformación extremadamente rápida una vez que desarrollas la IA. Tengo una opinión un poco menos extrema sobre eso”.
Luego describe un proceso más gradual de subir de marcha con un cambio acelerado de IA, y observa que: “En general, tal vez tenga más de un 50/50 de posibilidades de perdición poco después de tener sistemas de IA que sean de nivel humano. ”
Christiano también dijo en el podcast que hay «algo así como un 10-20% de posibilidades de que la IA se haga cargo» eventualmente, culminando en un escenario bastante sombrío donde muchos (o de hecho la mayoría) de los humanos están muertos. “Me lo tomo muy en serio”, añade Christiano. Bueno, no es broma.
La misión del Alignment Research Center es “alinear el futuro aprendizaje automático [AI] sistemas con intereses humanos”.
¿Maldito eterno?
Esta es otra más en un montón de advertencias recientes sobre cómo el mundo puede terminar afectado negativamente por la IA. Y uno de los más extremos, sin duda, dada la charla sobre la destrucción de la humanidad y la población de la tierra en su mayoría.
De acuerdo, incluso Christiano no cree que haya más que una probabilidad relativamente pequeña de que esto último suceda, pero aún así, una tirada de dados del 20% (en el peor de los casos) para una adquisición hostil de AI no es una perspectiva que a nadie le guste.
Por supuesto, es interesante que cualquier toma de poder de la IA deba ser hostil. ¿No podemos tener el desarrollo de una inteligencia artificial considerada y benévola que gobierne genuinamente en nuestro mejor interés, solo por una vez? Bueno no. Cualquier IA puede comenzar con buenas intenciones, pero inevitablemente se descarrilará, y los juicios para «mejor» terminarán saliendo mal de manera espectacular. Has visto las películas, ¿verdad?
Con toda seriedad, el punto que se está destacando ahora es que, si bien la IA no es realmente inteligente, todavía no como tal, básicamente sigue siendo una gran (gigantesca) aspiradora de datos, procesando todos esos datos y admitiendo que ya está haciendo un uso impresionante de dicho material. – Todavía necesitamos pautas y reglas establecidas más temprano que tarde para evitar posibles desastres en el futuro.
Esos desastres pueden tomar la forma de violaciones de la privacidad, por ejemplo, en lugar del fin del mundo tal como lo conocemos (TM), pero aún así deben protegerse.
La advertencia más reciente sobre la IA entregada por un experto proviene del llamado ‘Padrino de la IA’ que acaba de dejar Google. Geoffrey Hinton básicamente describió el caso general contra la IA, o al menos, contra su expansión rápida y sin control, que está sucediendo ahora, incluidos los peligros de que la IA nos supere en astucia de una manera mucho más rápida de lo que esperaba. Sin mencionar la amenaza para los puestos de trabajo, que ya es muy real. Ese es el peligro más apremiante a corto plazo en nuestro libro.
Esto sigue a una carta abierta que pide una pausa en el desarrollo de ChatGPT y otros sistemas de IA durante al menos seis meses, firmada por Elon Musk, entre otros (quien tiene su propia respuesta en forma de una IA que promete que es «poco probable que aniquile humanos”).