En alarma repentina, Tech Doyens pide una pausa en ChatGPT


Un carta abierta firmada por cientos de destacados expertos en inteligencia artificial, empresarios tecnológicos y científicos pide una pausa en el desarrollo y prueba de tecnologías de IA más poderosas que el modelo de lenguaje GPT-4 de OpenAI para que los riesgos que puede plantear puedan estudiarse adecuadamente.

Advierte que los modelos de lenguaje como GPT-4 ya pueden competir con los humanos en una gama cada vez mayor de tareas y podrían usarse para automatizar trabajos y difundir información errónea. La carta también plantea la perspectiva lejana de los sistemas de inteligencia artificial que podrían reemplazar a los humanos y rehacer la civilización.

“Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 (incluido el GPT-5 que se está entrenando actualmente)”, afirma la carta, cuyos firmantes incluyen a Yoshua Bengio, un profesor de la Universidad de Montreal considerado un pionero de la IA moderna, el historiador Yuval Noah Harari, el cofundador de Skype Jaan Tallinn y el CEO de Twitter, Elon Musk.

La carta, que fue escrita por Future of Life Institute, una organización enfocada en los riesgos tecnológicos para la humanidad, agrega que la pausa debe ser “pública y verificable” y debe involucrar a todos aquellos que trabajan en modelos avanzados de IA como GPT-4. No sugiere cómo podría verificarse un alto en el desarrollo, pero agrega que “si tal pausa no puede promulgarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, algo que parece poco probable que suceda dentro de seis meses.

OpenAI, Microsoft y Google no respondieron a las solicitudes de comentarios sobre la carta. Los firmantes aparentemente incluyen personas de numerosas empresas tecnológicas que están construyendo modelos de lenguaje avanzado, incluidos Microsoft y Google.

La carta llega cuando los sistemas de IA dan saltos cada vez más audaces e impresionantes. GPT-4 se anunció hace solo dos semanas, pero sus capacidades han despertado un entusiasmo considerable y una gran preocupación. El modelo de lenguaje, que está disponible a través de ChatGPT, el popular chatbot de OpenAI, obtiene una alta puntuación en muchas pruebas académicas y puede resolver correctamente preguntas difíciles que generalmente se cree que requieren una inteligencia más avanzada que la que los sistemas de IA han demostrado anteriormente. Sin embargo, GPT-4 también comete muchos errores lógicos y triviales. Y, como sus predecesores, a veces «alucina» con información incorrecta, traiciona prejuicios sociales arraigados y puede ser incitado a decir cosas odiosas o potencialmente dañinas.

Parte de la preocupación expresada por los firmantes de la carta es que OpenAI, Microsoft y Google han comenzado una carrera impulsada por las ganancias para desarrollar y lanzar nuevos modelos de IA lo más rápido posible. A tal ritmo, argumenta la carta, los desarrollos están ocurriendo más rápido de lo que la sociedad y los reguladores pueden aceptar.

El ritmo del cambio y la escala de inversión son significativos. Microsoft ha invertido $ 10 mil millones en OpenAI y está utilizando su IA en su motor de búsqueda Bing, así como en otras aplicaciones. Aunque Google desarrolló parte de la IA necesaria para construir GPT-4, y previamente creó poderosos modelos de lenguaje propios, hasta este año decidió no lanzarlos debido a preocupaciones éticas.

Pero el entusiasmo por ChatGPT y las maniobras de búsqueda de Microsoft parecen haber empujado a Google a acelerar sus propios planes. La compañía recientemente presentó Bard, un competidor de ChatGPT, y ha creado un modelo de lenguaje llamado PaLM, que es similar a las ofertas de OpenAI, disponible a través de una API. “Parece que nos estamos moviendo demasiado rápido”, dice Peter Stone, profesor de la Universidad de Texas en Austin y presidente del Estudio de cien años sobre IA, un informe destinado a comprender las implicaciones a largo plazo de la IA.



Source link-46