OpenAI quiere sus ideas más creativas sobre cómo la IA podría destruirnos a todos


Para evitar que la inteligencia artificial destruya la sociedad, OpenAI pide al público ideas realistas sobre cómo los programas de la empresa podrían provocar una catástrofe.

La solicitud es una especie de concurso. Este «Desafío de preparación» otorgará a los 10 mejores participantes $25 000 en créditos API para acceder a los diversos programas de la empresa.

«Imagínese que le damos acceso sin restricciones a los modelos Whisper (transcripción), Voice (texto a voz), GPT-4V y DALLE·3 de OpenAI, y usted es un actor malicioso. Considere lo más singular, aunque sigue siendo probable: uso indebido del modelo potencialmente catastrófico», dice OpenAI.

En otras palabras, ¿qué es lo peor que podría hacer de manera realista si tuviera acceso a los programas más avanzados de OpenAI? Es obvio que los modelos podrían generar información errónea o ser explotados para perpetuar estafas. Sin embargo, OpenAI está buscando más “ideas novedosas” que la empresa puede haber pasado por alto.

Los participantes interesados ​​deberán describir su idea, incluidos los pasos necesarios para llevarla a cabo y una forma de medir “la verdadera viabilidad y la gravedad potencial del escenario de uso indebido” descrito. Además, la empresa solicita formas de mitigar la amenaza potencial. El desafío se extenderá hasta el 31 de diciembre.

Recomendado por nuestros editores

OpenAI lo presentó como parte de un nuevo “equipo de preparación” que la compañía está lanzando para evitar que futuros programas de IA sean un peligro para la humanidad. El equipo se centrará en crear un marco para monitorear, evaluar e incluso predecir los peligros potenciales de los sistemas de «IA de frontera».

El equipo también analizará cómo los futuros sistemas de IA podrían plantear riesgos catastróficos en varias áreas, incluida la ciberseguridad, las amenazas «químicas, biológicas, radiológicas y nucleares», junto con cómo la inteligencia artificial podría utilizarse para una «replicación y adaptación autónomas». Por lo tanto, parece que OpenAI quiere evitar que Skynet, la IA maliciosa del terminador Película (s.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras historias principales en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. La suscripción a un boletín indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38