Elon Musk, Wozniak y otros presionan a los laboratorios para que «pausen» el entrenamiento de los sistemas de IA


¿La carrera por desarrollar una IA más poderosa como ChatGPT representa un riesgo para la civilización humana? Un grupo de empresarios tecnológicos y científicos, incluidos Elon Musk y Steve Wozniak, creen que sí.

Musk y Wozniak han firmado públicamente una carta abierta(Se abre en una nueva ventana)instando a la industria tecnológica a frenar el desarrollo de la IA, citando las consecuencias disruptivas que la tecnología podría tener en la sociedad.

“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, dice la carta, que también fue firmada por el cofundador de Pinterest, Evan Sharp, el excandidato presidencial de EE. UU. Andrew Wang, y aclamado escritor Yuval Noah Harari.

La carta exige que los laboratorios de IA «pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4». El último modelo de lenguaje grande de OpenAI puede generar respuestas similares a las humanas y completar tareas, como escribir artículos y codificar computadoras. , en segundos.

ChatGPT

(Gabby Jones/Bloomberg vía Getty Images)

GPT-4 ya impulsa ChatGPT de OpenAI, un programa que ha conquistado al mundo por su capacidad para optimizar e incluso automatizar algunas formas de trabajo administrativo. Sin embargo, también ha surgido la preocupación de que los programas de inteligencia artificial existentes y futuros sacudirán a la sociedad al quitarles los trabajos a los humanos y facilitar que los malos actores publiquen desinformación en Internet.

La carta abierta dice que es hora de que la sociedad sopese y controle las posibles consecuencias antes de sumergirse aún más en la carrera de la IA. “¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluidos los que cumplen? pregunta la carta. “¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos”

La carta continúa instando a los laboratorios de IA a que no solo detengan temporalmente su investigación, sino que también hagan que la pausa sea «pública y verificable».

“Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, agrega el documento.

Durante la pausa, los laboratorios de IA y los expertos independientes deben unirse para formar protocolos de seguridad en torno al desarrollo de IA. “Estos protocolos deberían garantizar que los sistemas que se adhieren a ellos estén seguros más allá de toda duda razonable. Esto hace no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes”, agrega la carta.

Recomendado por Nuestros Editores

La carta abierta está organizada por el Future of Life Institute, que se dedica a garantizar que las tecnologías, como la IA, puedan desarrollarse pacíficamente sin causar estragos en la sociedad. La carta, que cualquiera puede firmar, ha atraído hasta ahora 1.123 firmas. Varios ingenieros de Microsoft y Google lo han firmado.

OpenAI, Microsoft y Google, que está desarrollando su Bard AI, no respondieron de inmediato a una solicitud de comentarios. Pero las tres compañías dicen que planean desarrollar la IA de manera responsable.

Mientras tanto, algunos críticos argumentan que la carta abierta exagera algunos de los riesgos que plantean las tecnologías de IA y no aborda escenarios más realistas. «Esta carta abierta, irónicamente pero como era de esperar, alimenta aún más la exageración de la IA y hace que sea más difícil abordar los daños reales de la IA que ya están ocurriendo. Sospecho que beneficiará a las empresas que se supone que debe regular, y no a la sociedad». tuiteó(Se abre en una nueva ventana) Arvind Narayanan, profesor de informática de Princeton.

«Por supuesto que habrá efectos en el trabajo y deberíamos planificar eso, pero la idea de que los LLM (modelos de idiomas grandes) pronto reemplazarán a los profesionales es una tontería», agregó.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38