Joe Biden quiere la ayuda de los piratas informáticos para mantener a raya a los chatbots de IA


ChatGPT ha avivado nuevas esperanzas sobre el potencial de la inteligencia artificial, pero también nuevos temores. Hoy, la Casa Blanca se unió al coro de preocupaciones y anunció que apoyará un ejercicio de piratería masiva en la conferencia de seguridad Defcon este verano para investigar los sistemas de inteligencia artificial generativa de empresas como Google.

La Oficina de Política Científica y Tecnológica de la Casa Blanca también dijo que se desviarán $140 millones para lanzar siete nuevos Institutos Nacionales de Investigación de IA centrados en desarrollar una IA ética y transformadora para el bien público, lo que eleva el número total a 25 en todo el país.

El anuncio se produjo horas antes de una reunión sobre las oportunidades y los riesgos que presenta la IA entre la vicepresidenta Kamala Harris y ejecutivos de Google y Microsoft, así como de las startups Anthropic y OpenAI, que crearon ChatGPT.

La intervención de la IA de la Casa Blanca se produce cuando el apetito por regular la tecnología está creciendo en todo el mundo, impulsado por la exageración y la inversión provocada por ChatGPT. En el parlamento de la Unión Europea, los legisladores están negociando las actualizaciones finales de una amplia Ley de IA que restringirá e incluso prohibirá algunos usos de la IA, incluida la adición de la cobertura de la IA generativa. Los legisladores brasileños también están considerando una regulación orientada a proteger los derechos humanos en la era de la IA. El borrador de la regulación de IA generativa fue anunciado por el gobierno de China el mes pasado.

En Washington, DC, la semana pasada, el senador demócrata Michael Bennett presentó un proyecto de ley que crearía un grupo de trabajo de IA centrado en proteger la privacidad y los derechos civiles de los ciudadanos. También la semana pasada, cuatro agencias reguladoras de EE. UU., incluida la Comisión Federal de Comercio y el Departamento de Justicia, se comprometieron conjuntamente a utilizar las leyes existentes para proteger los derechos de los ciudadanos estadounidenses en la era de la IA. Esta semana, la oficina del senador demócrata Ron Wyden confirmó los planes para volver a intentar aprobar una ley llamada Ley de responsabilidad algorítmica, que exigiría que las empresas evalúen sus algoritmos y divulguen cuándo se está utilizando un sistema automatizado.

Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, dijo en marzo en un evento organizado por Axios que el escrutinio gubernamental de la IA era necesario para que la tecnología fuera beneficiosa. “Si vamos a aprovechar estas oportunidades, tenemos que empezar por luchar con los riesgos”, dijo Prabhakar.

El ejercicio de piratería respaldado por la Casa Blanca diseñado para exponer las debilidades en los sistemas generativos de IA se llevará a cabo este verano en la conferencia de seguridad Defcon. Se pedirá a miles de participantes, incluidos piratas informáticos y expertos en políticas, que exploren cómo los modelos generativos de empresas como Google, Nvidia y Stability AI se alinean con la Declaración de derechos de IA de la administración Biden anunciada en 2022 y un marco de gestión de riesgos del Instituto Nacional de Estándares y Tecnología publicado. a principios de este año.

Los puntos se otorgarán bajo un formato de «Capturar la bandera» para alentar a los participantes a probar una amplia gama de errores o comportamientos desagradables de los sistemas de IA. El evento se llevará a cabo en consulta con Microsoft, la organización sin fines de lucro SeedAI, AI Vulnerability Database y Humane Intelligence, una organización sin fines de lucro creada por el científico social y de datos Rumman Chowdhury. Anteriormente dirigió un grupo en Twitter que trabajaba en ética y aprendizaje automático, y organizó una campaña de sesgos que descubrió sesgos en el recorte automático de fotos de la red social.



Source link-46