[ad_1]
OpenAI está formando un equipo dedicado a gestionar los riesgos de la inteligencia artificial superinteligente. Una superinteligencia es un modelo de IA hipotético que es más inteligente incluso que el humano más inteligente y dotado, y sobresale en múltiples áreas de especialización en lugar de un dominio como algunos modelos de generaciones anteriores. OpenAI cree que tal modelo podría llegar antes de que finalice la década. “La superinteligencia será la tecnología más impactante que la humanidad haya inventado y podría ayudarnos a resolver muchos de los problemas más importantes del mundo”, dijo la organización sin fines de lucro. “Pero el vasto poder de la superinteligencia también podría ser muy peligroso y podría llevar a la pérdida de poder de la humanidad o incluso a la extinción humana”.
El nuevo equipo estará codirigido por el científico jefe de OpenAI, Ilya Sutskever, y Jan Leike, el jefe de alineación del laboratorio de investigación. Además, OpenAI dijo que dedicaría el 20 por ciento de su poder de cómputo actualmente asegurado a la iniciativa, con el objetivo de desarrollar un . En teoría, dicho sistema ayudaría a OpenAI a garantizar que una superinteligencia sea segura de usar y esté alineada con los valores humanos. “Si bien este es un objetivo increíblemente ambicioso y no tenemos garantizado el éxito, somos optimistas de que un esfuerzo concentrado y concertado puede resolver este problema”, dijo OpenAI. «Hay muchas ideas que se han mostrado prometedoras en experimentos preliminares, tenemos métricas cada vez más útiles para el progreso y podemos usar los modelos actuales para estudiar muchos de estos problemas empíricamente». El laboratorio agregó que compartiría una hoja de ruta en el futuro.
El anuncio del miércoles se produce cuando los gobiernos de todo el mundo consideran cómo regular la naciente industria de la IA. En los EE. UU., Sam Altman, el CEO de OpenAI, lo ha hecho en los últimos meses. Públicamente, Altman ha dicho que la regulación de la IA es «esencial» y que OpenAI está «ansiosa» por trabajar con los legisladores. Pero debemos ser escépticos ante tales proclamaciones y, de hecho, ante esfuerzos como el equipo de superalineación de OpenAI. Al centrar la atención del público en riesgos hipotéticos que tal vez nunca se materialicen, organizaciones como OpenAI trasladan la carga de la regulación al horizonte en lugar del aquí y ahora. Hay problemas mucho más inmediatos en torno a la interacción entre la IA y la inteligencia artificial, y los formuladores de políticas deben abordarlos hoy, no mañana.
[ad_2]
Source link-47