Los líderes tecnológicos y los expertos en IA exigen una pausa de seis meses en los experimentos de IA «fuera de control»


Una carta abierta firmada por líderes tecnológicos y destacados investigadores de IA ha pedido a los laboratorios y empresas de IA que «pausen inmediatamente» su trabajo. Signatarios como Steve Wozniak y Elon Musk están de acuerdo en que los riesgos justifican un descanso mínimo de seis meses de la producción de tecnología más allá de GPT-4 para disfrutar de los sistemas de inteligencia artificial existentes, permitir que las personas se ajusten y garantizar que beneficien a todos. La carta agrega que el cuidado y la previsión son necesarios para garantizar la seguridad de los sistemas de IA, pero se están ignorando.

La referencia a GPT-4, un modelo de OpenAI que puede responder con texto a mensajes escritos o visuales, surge cuando las empresas se apresuran a construir sistemas de chat complejos que utilicen la tecnología. Microsoft, por ejemplo, confirmó recientemente que su motor de búsqueda Bing renovado ha funcionado con el modelo GPT-4 durante más de siete semanas, mientras que Google presentó recientemente Bard, su propio sistema generativo de inteligencia artificial impulsado por LaMDA. La inquietud en torno a la IA ha circulado durante mucho tiempo, pero la aparente carrera para implementar primero la tecnología de IA más avanzada ha generado preocupaciones más urgentes.

«Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto envueltos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender. , predecir o controlar de forma fiable», afirma la carta.

La carta en cuestión fue publicada por Future of Life Institute (FLI), una organización dedicada a minimizar los riesgos y el mal uso de las nuevas tecnologías. Musk previamente donó $ 10 millones a FLI para su uso en estudios sobre la seguridad de la IA. Además de él y Wozniak, los firmantes incluyen una gran cantidad de líderes mundiales de IA, como el presidente del Centro de IA y Política Digital, Marc Rotenberg, el físico del MIT y presidente del Instituto del Futuro de la Vida, Max Tegmark, y el autor Yuval Noah Harari. Harari también coescribió un artículo de opinión en el New York Times la semana pasada advirtiendo sobre los riesgos de la IA, junto con los fundadores del Center for Humane Technology y sus compañeros signatarios, Tristan Harris y Aza Raskin.

Esta llamada se siente como el siguiente paso de una encuesta de 2022 de más de 700 investigadores de aprendizaje automático, en la que casi la mitad de los participantes afirmaron que hay un 10 por ciento de posibilidades de un «resultado extremadamente malo» de la IA, incluida la extinción humana. Cuando se les preguntó acerca de la seguridad en la investigación de IA, el 68 por ciento de los investigadores dijo que se debería hacer más o mucho más.

Cualquiera que comparta inquietudes sobre la velocidad y la seguridad de la producción de IA puede agregar su nombre a la carta. Sin embargo, los nuevos nombres no se verifican necesariamente, por lo que cualquier adición notable después de la publicación inicial es potencialmente falsa.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47