Grabar controles de IA en silicio podría mantener a raya el fin del mundo


Es de suponer que incluso el algoritmo de inteligencia artificial más inteligente y astuto tendrá que obedecer las leyes del silicio. Sus capacidades estarán limitadas por el hardware en el que se ejecuta.

Algunos investigadores están explorando formas de explotar esa conexión para limitar el potencial de los sistemas de inteligencia artificial de causar daño. La idea es codificar reglas que rigen el entrenamiento y la implementación de algoritmos avanzados directamente en los chips de computadora necesarios para ejecutarlos.

En teoría, la esfera donde actualmente reside gran parte del debate sobre la IA peligrosamente poderosa, esto podría proporcionar una nueva y poderosa forma de evitar que naciones rebeldes o empresas irresponsables desarrollen en secreto IA peligrosa. Y uno más difícil de evadir que las leyes o tratados convencionales. Un informe publicado a principios de este mes por el Center for New American Security, un influyente grupo de expertos en política exterior estadounidense, describe cómo se podría aprovechar el silicio cuidadosamente obstaculizado para hacer cumplir una serie de controles de IA.

Algunos chips ya cuentan con componentes confiables diseñados para salvaguardar datos confidenciales o protegerlos contra el uso indebido. Los últimos iPhone, por ejemplo, mantienen la información biométrica de una persona en un «enclave seguro». Google utiliza un chip personalizado en sus servidores en la nube para garantizar que no se haya manipulado nada.

El documento sugiere aprovechar características similares integradas en las GPU (o grabar otras nuevas en chips futuros) para evitar que los proyectos de IA accedan a más de una cierta cantidad de potencia informática sin una licencia. Debido a que se necesita una gran potencia informática para entrenar los algoritmos de IA más potentes, como los que están detrás de ChatGPT, eso limitaría quién puede construir los sistemas más potentes.

CNAS dice que las licencias podrían ser emitidas por un gobierno o un regulador internacional y actualizadas periódicamente, lo que haría posible cortar el acceso a la capacitación en IA al rechazar una nueva. «Se podrían diseñar protocolos de modo que sólo se pueda implementar un modelo si se ha realizado una evaluación particular y se ha obtenido una puntuación superior a un cierto umbral, digamos por seguridad», dice Tim Fist, miembro de CNAS y uno de los tres autores de el papel.

A algunas luminarias de la IA les preocupa que la IA se esté volviendo tan inteligente que algún día pueda resultar rebelde y peligrosa. Más inmediatamente, algunos expertos y gobiernos temen que incluso los modelos de IA existentes puedan facilitar el desarrollo de armas químicas o biológicas o automatizar el cibercrimen. Washington ya ha impuesto una serie de controles a la exportación de chips de IA para limitar el acceso de China a la IA más avanzada, por temor a que pueda usarse con fines militares, aunque el contrabando y la ingeniería inteligente han proporcionado algunas formas de evitarlos. Nvidia no quiso hacer comentarios, pero la compañía ha perdido miles de millones de dólares en pedidos de China debido a los últimos controles de exportación de Estados Unidos.

Fist of CNAS dice que aunque las restricciones de codificación en hardware informático pueden parecer extremas, existe un precedente en el establecimiento de infraestructura para monitorear o controlar tecnología importante y hacer cumplir tratados internacionales. «Si se piensa en la seguridad y la no proliferación nuclear, las tecnologías de verificación fueron absolutamente claves para garantizar los tratados», dice Fist de CNAS. «La red de sismómetros que tenemos ahora para detectar pruebas nucleares subterráneas respalda tratados que dicen que no probaremos armas subterráneas por encima de un cierto umbral de kilotones».

Las ideas propuestas por CNAS no son del todo teóricas. Los importantes chips de entrenamiento de IA de Nvidia, cruciales para construir los modelos de IA más potentes, ya vienen con módulos criptográficos seguros. Y en noviembre de 2023, investigadores del Future of Life Institute, una organización sin fines de lucro dedicada a proteger a la humanidad de amenazas existenciales, y Mithril Security, una startup de seguridad, crearon una demostración que muestra cómo el módulo de seguridad de una CPU Intel podría usarse para una criptografía. Esquema que puede restringir el uso no autorizado de un modelo de IA.



Source link-46