{"id":610019,"date":"2023-05-05T03:34:14","date_gmt":"2023-05-05T03:34:14","guid":{"rendered":"https:\/\/magazineoffice.com\/los-piratas-informaticos-pondran-a-prueba-los-modelos-de-ia-de-google-openai-y-mas-en-defcon-31\/"},"modified":"2023-05-05T03:34:19","modified_gmt":"2023-05-05T03:34:19","slug":"los-piratas-informaticos-pondran-a-prueba-los-modelos-de-ia-de-google-openai-y-mas-en-defcon-31","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/los-piratas-informaticos-pondran-a-prueba-los-modelos-de-ia-de-google-openai-y-mas-en-defcon-31\/","title":{"rendered":"Los piratas inform\u00e1ticos pondr\u00e1n a prueba los modelos de IA de Google, OpenAI y m\u00e1s en Defcon 31"},"content":{"rendered":"


\n<\/p>\n

\n

Varias herramientas de IA ahora est\u00e1n disponibles p\u00fablicamente, desde Google Bard y Bing AI hasta la que puso en marcha esta bola: ChatGPT de OpenAI. Pero, \u00bfqu\u00e9 pueden hacer realmente estos modelos de inteligencia artificial? Pronto lo descubriremos, ya que los piratas inform\u00e1ticos pondr\u00e1n a prueba a los nombres m\u00e1s importantes de la IA en Defcon 31.<\/p>\n

La convenci\u00f3n de hackers est\u00e1 llamando(Se abre en una nueva ventana)<\/span> asistentes a la reuni\u00f3n de este a\u00f1o para \u00abencontrar errores en grandes modelos de lenguaje creados por Anthropic, Google, Hugging Face, Nvidia, OpenAI y Stability\u00bb.<\/p>\n

Defcon 31(Se abre en una nueva ventana)<\/span> est\u00e1 programado del 10 al 13 de agosto en Las Vegas. El esfuerzo de IA est\u00e1 siendo organizado por AI Village, en asociaci\u00f3n con Humane Intelligence(Se abre en una nueva ventana)<\/span>semilla AI(Se abre en una nueva ventana)<\/span>y la base de datos de vulnerabilidades de IA(Se abre en una nueva ventana)<\/span>. La Oficina de Ciencia, Tecnolog\u00eda y Pol\u00edtica de la Casa Blanca(Se abre en una nueva ventana)<\/span> tambi\u00e9n participa, al igual que la Direcci\u00f3n de Ingenier\u00eda y Ciencias de la Informaci\u00f3n y la Computaci\u00f3n de la Fundaci\u00f3n Nacional de Ciencias, y el Caucus de IA del Congreso.<\/p>\n

\u00abEsta es la primera vez que alguien est\u00e1 intentando que m\u00e1s de unos pocos cientos de expertos eval\u00faen estos modelos\u00bb, seg\u00fan los organizadores de Defcon. \u00abCuantas m\u00e1s personas sepan c\u00f3mo trabajar mejor con estos modelos y sus limitaciones, mejor. Esta tambi\u00e9n es una oportunidad para que las nuevas comunidades aprendan habilidades en IA explorando sus peculiaridades y limitaciones\u00bb.<\/p>\n

\"logotipo<\/p>\n

\n<\/p>\n

AI Village supervisar\u00e1 el evento de pirater\u00eda de IA en Defcon. (Cr\u00e9dito: Defcon)
\n<\/small>\n<\/p>\n

Los organizadores de AI Village proporcionar\u00e1n computadoras port\u00e1tiles, acceso a cada modelo y un premio para la persona que pueda probar cada uno de manera m\u00e1s exhaustiva. \u00abProporcionaremos un sistema de puntos estilo captura la bandera (CTF) para promover la prueba de una amplia gama de da\u00f1os\u00bb, dicen los organizadores. \u00abLa persona que obtiene la mayor cantidad de puntos gana una GPU Nvidia de gama alta\u00bb.<\/p>\n

Los participantes incluir\u00e1n investigadores expertos, as\u00ed como \u00abestudiantes de instituciones y comunidades ignoradas\u00bb. Se espera que todos cumplan con el juramento hipocr\u00e1tico del hacker. <\/p>\n

Al asociarse con una entidad no gubernamental, la Casa Blanca dice que quiere expertos independientes e imparciales para determinar si los modelos cumplen con los criterios de su Declaraci\u00f3n de Derechos de AI.(Se abre en una nueva ventana)<\/span>. La Oficina de Ciencia, Tecnolog\u00eda y Pol\u00edtica redact\u00f3 la declaraci\u00f3n de derechos y est\u00e1 supervisando la iniciativa Defcon.<\/p>\n

\u00abEste ejercicio independiente proporcionar\u00e1 informaci\u00f3n cr\u00edtica a los investigadores y al p\u00fablico sobre los impactos de estos modelos, y permitir\u00e1 a las empresas y desarrolladores de IA tomar medidas para solucionar los problemas que se encuentran en esos modelos\u00bb, dice la Casa Blanca.(Se abre en una nueva ventana)<\/span>.<\/p>\n

La declaraci\u00f3n de derechos identifica cinco principios que, seg\u00fan la administraci\u00f3n, \u00abdeber\u00edan guiar el dise\u00f1o, el uso y la implementaci\u00f3n de sistemas automatizados para proteger al p\u00fablico estadounidense en la era de la inteligencia artificial\u00bb. Sostiene que todas las personas tienen los siguientes derechos cuando se trata de IA:<\/p>\n

\n
\n

Recomendado por Nuestros Editores<\/h3>\n<\/div>\n<\/div>\n
    \n
  1. \n

    Debe estar protegido de sistemas inseguros o ineficaces. <\/p>\n<\/li>\n

  2. \n

    No debe sufrir discriminaci\u00f3n por parte de los algoritmos, y los sistemas deben usarse y dise\u00f1arse de manera equitativa. <\/p>\n<\/li>\n

  3. \n

    Debe estar protegido contra pr\u00e1cticas abusivas de datos a trav\u00e9s de protecciones integradas, y debe tener control sobre c\u00f3mo se utilizan los datos sobre usted.<\/p>\n<\/li>\n

  4. \n

    Debe saber que se est\u00e1 utilizando un sistema automatizado y comprender c\u00f3mo y por qu\u00e9 contribuye a los resultados que lo impactan.<\/p>\n<\/li>\n

  5. \n

    Deber\u00eda poder optar por no participar, cuando corresponda, y tener acceso a una persona que pueda considerar y solucionar r\u00e1pidamente los problemas que encuentre.<\/p>\n<\/li>\n<\/ol>\n

    El evento Defcon busca acelerar el descubrimiento de problemas que violan estos principios. Por lo general, empresas como Google y OpenAI probar\u00edan su propia tecnolog\u00eda a puertas cerradas, o a trav\u00e9s de sus propios programas de recompensas por errores, lo que crea problemas con los que \u00ablos profesionales de seguridad y el p\u00fablico tienen que lidiar\u00bb, dicen los organizadores de Defcon.<\/p>\n

    \u00abNos encanta la explosi\u00f3n de creatividad que permiten los nuevos modelos generativos de lenguaje extenso (LLM)\u00bb, dice Defcon. \u00abSin embargo, solo estamos comenzando a comprender los riesgos incorporados y emergentes que surgen de la automatizaci\u00f3n de estas nuevas tecnolog\u00edas a escala\u00bb.<\/p>\n

    \"La<\/p>\n

    \n<\/p>\n

    La vicepresidenta Kamala Harris y el presidente Biden (Cr\u00e9dito: Alex Wong \/ Staff \/ Getty Images)
    \n<\/small>\n<\/p>\n

    La Casa Blanca tambi\u00e9n anunci\u00f3 hoy que la Fundaci\u00f3n Nacional de Ciencias ha asignado $ 140 millones para crear siete nuevos Institutos Nacionales de Investigaci\u00f3n de IA, mientras que la Oficina de Administraci\u00f3n y Presupuesto publicar\u00e1 el borrador de una pol\u00edtica sobre el uso de sistemas de IA por parte del gobierno para comentario p\u00fablico este verano.<\/p>\n

    La vicepresidenta Kamala Harris tambi\u00e9n se reuni\u00f3 con los directores ejecutivos de Alphabet, Anthropic, Microsoft y OpenAI para analizar el desarrollo de sistemas de IA responsables, confiables y \u00e9ticos.<\/p>\n

    \n
    \n

    \u00bfTe gusta lo que est\u00e1s leyendo?<\/h4>\n

    Matricularse en Vigilancia de la seguridad<\/strong> bolet\u00edn de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.<\/p>\n

    Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un bolet\u00edn informativo indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n