A principios de esta semana, informamos sobre la carta abierta del Future of Life Institute (FLI) que pedía una pausa de seis meses en el entrenamiento de sistemas de IA «más potentes» que el recientemente lanzado Chat GPT-4. La carta fue firmada por personas como Elon Musk, Steve Wozniak y el fundador de Stability AI, Emad Mostaque. El guardián (se abre en una pestaña nueva) informa, sin embargo, que la carta enfrenta duras críticas por parte de las mismas fuentes que cita.
«Sobre los peligros de los loros estocásticos (se abre en una pestaña nueva)» es un artículo influyente que critica los costos ambientales y los sesgos inherentes de los modelos de lenguaje extenso como Chat GPT, y el artículo es una de las principales fuentes citadas en la carta abierta de la semana pasada. La coautora Margaret Mitchell, quien anteriormente dirigió la investigación ética de IA en Google, dijo a Reuters que, «Al tratar muchas ideas cuestionables como un hecho, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI».
Mitchell continúa: «Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos».
La profesora asistente de la Universidad de Connecticut, Shiri Dori-Hacohen, cuyo trabajo también fue citado en la carta de FLI, tuvo palabras igualmente duras. «La IA no necesita alcanzar inteligencia a nivel humano para exacerbar esos riesgos», dijo a Reuters, refiriéndose a desafíos existenciales como el cambio climático, y agregó que «hay riesgos no existenciales que son muy, muy importantes, pero no no recibirá el mismo tipo de atención al nivel de Hollywood».
El Future of Life Institute recibió €3,531,696 ($4,177,996 en ese momento) en fondos de la Fundación Musk (se abre en una pestaña nueva) en 2021, su mayor donante registrado. Mientras tanto, el propio Elon Musk cofundó el creador de Chat GPT, Open AI, antes de dejar la empresa en malos términos en 2018, según lo informado por Forbes. (se abre en una pestaña nueva). Un informe de Vice (se abre en una pestaña nueva) señala que varios signatarios de la carta de FLI han resultado ser falsos, incluido el científico jefe de inteligencia artificial de Meta, Yann LeCun y, ah, ¿el presidente chino Xi Jinping? Desde entonces, FLI ha introducido un proceso para verificar cada nuevo signatario.
El 31 de marzo, los autores de «Sobre los peligros de los loros estocásticos», incluidos Mitchell, la profesora de lingüística Emlily M. Bender, el científico informático Timni Gebru y la lingüista Angelina McMillan-Major, emitieron una respuesta formal. (se abre en una pestaña nueva) a la carta abierta de FLI a través del instituto de investigación ético de IA DAIR. “Los daños de la llamada IA son reales y presentes y se derivan de los actos de personas y corporaciones que implementan sistemas automatizados”, dice el resumen de la carta. «Los esfuerzos regulatorios deben centrarse en la transparencia, la rendición de cuentas y la prevención de prácticas laborales explotadoras».
Los investigadores reconocen algunas medidas propuestas por la carta de FLI con las que están de acuerdo, pero afirman que «estas se ven ensombrecidas por el alarmismo y la exageración de la IA, que dirige el discurso hacia los riesgos de ‘mentes digitales poderosas’ imaginadas con ‘inteligencia humana-competitiva’. Argumentan que los peligros más inmediatos y apremiantes de la tecnología de IA son:
Los autores de Stochastic Parrot señalan que el FLI se suscribe a la escuela filosófica «longtermista» que se ha vuelto extremadamente popular entre las luminarias de Silicon Valley en los últimos años, una ideología que valora el bienestar de los humanos teóricos del futuro lejano (trillones de ellos, supuestamente) por sobre el personas realmente existentes de hoy.
Es posible que esté familiarizado con el término de la saga en curso del colapso del intercambio de cifrado FTC y su líder caído en desgracia, Sam Bankman-Fried (se abre en una pestaña nueva), quien fue franco en su defensa del «altruismo efectivo» para los futuros humanos que tendrán que lidiar con la Singularidad y cosas por el estilo. ¿Por qué preocuparse por el cambio climático y el suministro mundial de alimentos cuando tenemos que asegurarnos de que las Esferas Dyson de 5402 AD no se enfrenten a un nanobot «Grey Goo (se abre en una pestaña nueva)«escenario de apocalipsis!
Los autores de Stochastic Parrot efectivamente resumen su caso cerca del final de la carta: «Contrary to the [FLI letter’s] narrativa de que debemos ‘adaptarnos’ a un futuro tecnológico aparentemente predeterminado y hacer frente ‘a las dramáticas perturbaciones económicas y políticas (especialmente a la democracia) que causará la IA’, no estamos de acuerdo en que nuestro papel sea ajustarnos a las prioridades de unos pocos privilegiados y lo que deciden construir y proliferar».
En cambio, los autores de la carta argumentan: «Deberíamos estar construyendo máquinas que funcionen para nosotros, en lugar de ‘adaptar’ la sociedad para que sea legible y escribible por máquinas. La carrera actual hacia ‘experimentos de IA’ cada vez más grandes no es un camino predeterminado donde nuestra única opción es qué tan rápido correr, sino más bien un conjunto de decisiones impulsadas por el afán de lucro».