Los piratas informáticos pondrán a prueba los modelos de IA de Google, OpenAI y más en Defcon 31


Varias herramientas de IA ahora están disponibles públicamente, desde Google Bard y Bing AI hasta la que puso en marcha esta bola: ChatGPT de OpenAI. Pero, ¿qué pueden hacer realmente estos modelos de inteligencia artificial? Pronto lo descubriremos, ya que los piratas informáticos pondrán a prueba a los nombres más importantes de la IA en Defcon 31.

La convención de hackers está llamando(Se abre en una nueva ventana) asistentes a la reunión de este año para «encontrar errores en grandes modelos de lenguaje creados por Anthropic, Google, Hugging Face, Nvidia, OpenAI y Stability».

Defcon 31(Se abre en una nueva ventana) está programado del 10 al 13 de agosto en Las Vegas. El esfuerzo de IA está siendo organizado por AI Village, en asociación con Humane Intelligence(Se abre en una nueva ventana)semilla AI(Se abre en una nueva ventana)y la base de datos de vulnerabilidades de IA(Se abre en una nueva ventana). La Oficina de Ciencia, Tecnología y Política de la Casa Blanca(Se abre en una nueva ventana) también participa, al igual que la Dirección de Ingeniería y Ciencias de la Información y la Computación de la Fundación Nacional de Ciencias, y el Caucus de IA del Congreso.

«Esta es la primera vez que alguien está intentando que más de unos pocos cientos de expertos evalúen estos modelos», según los organizadores de Defcon. «Cuantas más personas sepan cómo trabajar mejor con estos modelos y sus limitaciones, mejor. Esta también es una oportunidad para que las nuevas comunidades aprendan habilidades en IA explorando sus peculiaridades y limitaciones».

logotipo de DEFCON

AI Village supervisará el evento de piratería de IA en Defcon. (Crédito: Defcon)

Los organizadores de AI Village proporcionarán computadoras portátiles, acceso a cada modelo y un premio para la persona que pueda probar cada uno de manera más exhaustiva. «Proporcionaremos un sistema de puntos estilo captura la bandera (CTF) para promover la prueba de una amplia gama de daños», dicen los organizadores. «La persona que obtiene la mayor cantidad de puntos gana una GPU Nvidia de gama alta».

Los participantes incluirán investigadores expertos, así como «estudiantes de instituciones y comunidades ignoradas». Se espera que todos cumplan con el juramento hipocrático del hacker.

Al asociarse con una entidad no gubernamental, la Casa Blanca dice que quiere expertos independientes e imparciales para determinar si los modelos cumplen con los criterios de su Declaración de Derechos de AI.(Se abre en una nueva ventana). La Oficina de Ciencia, Tecnología y Política redactó la declaración de derechos y está supervisando la iniciativa Defcon.

«Este ejercicio independiente proporcionará información crítica a los investigadores y al público sobre los impactos de estos modelos, y permitirá a las empresas y desarrolladores de IA tomar medidas para solucionar los problemas que se encuentran en esos modelos», dice la Casa Blanca.(Se abre en una nueva ventana).

La declaración de derechos identifica cinco principios que, según la administración, «deberían guiar el diseño, el uso y la implementación de sistemas automatizados para proteger al público estadounidense en la era de la inteligencia artificial». Sostiene que todas las personas tienen los siguientes derechos cuando se trata de IA:

Recomendado por Nuestros Editores

  1. Debe estar protegido de sistemas inseguros o ineficaces.

  2. No debe sufrir discriminación por parte de los algoritmos, y los sistemas deben usarse y diseñarse de manera equitativa.

  3. Debe estar protegido contra prácticas abusivas de datos a través de protecciones integradas, y debe tener control sobre cómo se utilizan los datos sobre usted.

  4. Debe saber que se está utilizando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que lo impactan.

  5. Debería poder optar por no participar, cuando corresponda, y tener acceso a una persona que pueda considerar y solucionar rápidamente los problemas que encuentre.

El evento Defcon busca acelerar el descubrimiento de problemas que violan estos principios. Por lo general, empresas como Google y OpenAI probarían su propia tecnología a puertas cerradas, o a través de sus propios programas de recompensas por errores, lo que crea problemas con los que «los profesionales de seguridad y el público tienen que lidiar», dicen los organizadores de Defcon.

«Nos encanta la explosión de creatividad que permiten los nuevos modelos generativos de lenguaje extenso (LLM)», dice Defcon. «Sin embargo, solo estamos comenzando a comprender los riesgos incorporados y emergentes que surgen de la automatización de estas nuevas tecnologías a escala».

La vicepresidenta Kamala Harris en el podio con Biden detrás de ella.

La vicepresidenta Kamala Harris y el presidente Biden (Crédito: Alex Wong / Staff / Getty Images)

La Casa Blanca también anunció hoy que la Fundación Nacional de Ciencias ha asignado $ 140 millones para crear siete nuevos Institutos Nacionales de Investigación de IA, mientras que la Oficina de Administración y Presupuesto publicará el borrador de una política sobre el uso de sistemas de IA por parte del gobierno para comentario público este verano.

La vicepresidenta Kamala Harris también se reunió con los directores ejecutivos de Alphabet, Anthropic, Microsoft y OpenAI para analizar el desarrollo de sistemas de IA responsables, confiables y éticos.

¿Te gusta lo que estás leyendo?

Matricularse en Vigilancia de la seguridad boletín de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38