A principios de este mes, OpenAI lanz\u00f3 GPT-4, un modelo de IA que puede realizar tareas de composici\u00f3n y supuestamente pasar pruebas estandarizadas a nivel humano, aunque esas afirmaciones a\u00fan est\u00e1n siendo evaluadas por la investigaci\u00f3n. Independientemente, el avance de las capacidades de GPT-4 y Bing Chat sobre los modelos de IA anteriores asust\u00f3 a algunos expertos que creen que nos dirigimos hacia sistemas de IA superinteligentes m\u00e1s r\u00e1pido de lo esperado.<\/p>\n
En este sentido, el Future of Life Institute argumenta que los avances recientes en IA han llevado a una \u00abcarrera fuera de control\u00bb para desarrollar e implementar modelos de IA que son dif\u00edciles de predecir o controlar. Creen que la falta de planificaci\u00f3n y gesti\u00f3n de estos sistemas de IA es preocupante y que los sistemas de IA potentes solo deben desarrollarse una vez que sus efectos se comprendan bien y sean manejables. Como escriben en la carta:<\/p>\n
\nLos sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigaci\u00f3n y lo reconocen los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podr\u00eda representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes.<\/p>\n<\/blockquote>\n
En particular, la carta plantea cuatro preguntas cargadas, algunas de las cuales suponen escenarios hipot\u00e9ticos que son muy controvertidos en algunos sectores de la comunidad de IA, incluida la p\u00e9rdida de \u00abtodos los trabajos\u00bb para la IA y la \u00abp\u00e9rdida de control\u00bb de la civilizaci\u00f3n:<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\n\n\u00abDeber\u00eda<\/em> \u00bfDejamos que las m\u00e1quinas inunden nuestros canales de informaci\u00f3n con propaganda y mentiras?\u00bb<\/span><\/li>\n\u00abDeber\u00eda<\/em> \u00bfAutomatizamos todos los trabajos, incluidos los de cumplimiento?\u00ab<\/em><\/span><\/li>\n\u00abDeber\u00eda<\/em> desarrollamos mentes no humanas que eventualmente podr\u00edan superarnos en n\u00famero, astucia, obsoletas y reemplazarnos?\u00bb<\/span><\/li>\n\u00abDeber\u00eda<\/em> corremos el riesgo de perder el control de nuestra civilizaci\u00f3n?\u00bb<\/span><\/li>\n<\/ul>\nPara abordar estas amenazas potenciales, la carta pide a los laboratorios de IA que \u00abpausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA m\u00e1s potentes que GPT-4\u00bb. Durante la pausa, los autores proponen que los laboratorios de IA y los expertos independientes colaboren para establecer protocolos de seguridad compartidos para el dise\u00f1o y desarrollo de IA. Estos protocolos ser\u00edan supervisados \u200b\u200bpor expertos externos independientes y deber\u00edan garantizar que los sistemas de IA sean \u00abseguros m\u00e1s all\u00e1 de toda duda razonable\u00bb.<\/p>\n
Sin embargo, no est\u00e1 claro qu\u00e9 significa realmente \u00abm\u00e1s poderoso que GPT-4\u00bb en un sentido pr\u00e1ctico o regulatorio. La carta no especifica una forma de garantizar el cumplimiento midiendo el poder relativo de un modelo de lenguaje grande o multimodal. Adem\u00e1s, OpenAI ha evitado espec\u00edficamente publicar detalles t\u00e9cnicos sobre c\u00f3mo funciona GPT-4.<\/p>\n
El Future of Life Institute es una organizaci\u00f3n sin fines de lucro fundada en 2014 por un grupo de cient\u00edficos preocupados por los riesgos existenciales que enfrenta la humanidad, incluida la biotecnolog\u00eda, las armas nucleares y el cambio clim\u00e1tico. Adem\u00e1s, el riesgo existencial hipot\u00e9tico de la IA ha sido un enfoque clave para el grupo. Seg\u00fan Reuters, la organizaci\u00f3n est\u00e1 financiada principalmente por la Fundaci\u00f3n Musk, el grupo de altruismo efectivo Founders Pledge con sede en Londres y la Fundaci\u00f3n Comunitaria de Silicon Valley.<\/p>\n
Signatarios notables de la carta confirmado por un reportero de Reuters<\/a> incluyen al mencionado CEO de Tesla, Elon Musk, los pioneros de AI Yoshua Bengio y Stuart Russell, el cofundador de Apple Steve Wozniak, el CEO de Stability AI, Emad Mostaque, y el autor Yuval Noah Harari<\/span>. La carta abierta est\u00e1 disponible para que cualquier persona en Internet la firme sin verificaci\u00f3n, lo que inicialmente condujo a la inclusi\u00f3n de algunos nombres agregados falsamente, como el ex director ejecutivo de Microsoft, Bill Gates, el director ejecutivo de OpenAI, Sam Altman, y el personaje ficticio. Juan mecha<\/a>. Esos nombres fueron eliminados m\u00e1s tarde.<\/p>\n<\/p><\/div>\n