A medida que la IA continúa dominando la conversación en casi todos los espacios imaginables, ha surgido una pregunta repetida: ¿Cómo podemos controlar esta nueva tecnología? Según un artículo de la Universidad de Cambridge, la respuesta puede estar en numerosos métodos, incluidos los interruptores de apagado integrados y los bloqueos remotos integrados en el hardware que los ejecuta.
El documento presenta contribuciones de varias instituciones académicas, incluido el Centro Leverhulme de la Universidad de Cambridge, el Oxford Internet Institute y la Universidad de Georgetown, junto con voces de los creadores de ChatGPT, OpenAI (a través de The Register). Entre las propuestas que incluyen regulaciones gubernamentales más estrictas sobre la venta de hardware de procesamiento de IA y otros posibles métodos de regulación está la sugerencia de que los chips de IA modificados podrían «dar fe remotamente a un regulador de que están operando legítimamente y dejar de operar si no».
Se propone lograr esto mediante coprocesadores integrados que actúen como salvaguardia del hardware, lo que implicaría verificar un certificado digital que debería renovarse periódicamente y desactivar o reducir el rendimiento del hardware si se encuentra la licencia. ser ilegítimo o caducado.
Esto efectivamente haría que el hardware utilizado para calcular las tareas de IA fuera responsable hasta cierto punto de la legitimidad de su uso y proporcionaría un método para «matar» o someter el proceso si se descubriera que faltan ciertas calificaciones.
Más adelante, el documento también sugiere una propuesta que implica la aprobación de varios reguladores externos antes de que se puedan realizar ciertas tareas de entrenamiento de IA, señalando que «las armas nucleares utilizan mecanismos similares llamados enlaces de acción permisivos».
Si bien muchas de las propuestas ya tienen equivalentes en el mundo real que parecen estar funcionando eficazmente, como las estrictas sanciones comerciales impuestas por Estados Unidos a países como China por restringir la exportación de chips de IA, la sugerencia de que en algún nivel la IA debería ser regulada y restringida por Parece prudente disponer de sistemas remotos en caso de algún imprevisto.
Tal como están las cosas actualmente, el desarrollo de la IA parece estar avanzando a un ritmo cada vez más rápido, y los modelos actuales de IA ya están encontrando uso en una gran cantidad de ámbitos que parecen merecer una pausa para reflexionar. Desde proyectos de infraestructura de centrales eléctricas hasta aplicaciones militares, la IA parece estar encontrando un lugar en todas las industrias importantes, y la regulación se ha convertido en un tema muy debatido en los últimos años, con muchas voces destacadas de la industria tecnológica y de instituciones gubernamentales pidiendo repetidamente más debate y mejores métodos para abordar la tecnología cuando puedan surgir problemas.
En una reunión del comité digital y de comunicaciones de la Cámara de los Lores a finales del año pasado, a los jefes de Microsoft y Meta se les preguntó directamente si un modelo de IA inseguro podría retirarse, y simplemente evitaron el cuestionamiento, sugiriendo que tal como están las cosas, la respuesta actualmente es no. .
Un interruptor de apagado integrado o un sistema de bloqueo remoto acordado y regulado por múltiples organismos sería una forma de mitigar estos riesgos potenciales y, con suerte, haría que aquellos de nosotros preocupados por la ola de implementaciones de IA que arrasan en nuestro mundo durmieran mejor por la noche.
A todos nos gusta una historia ficticia de una inteligencia artificial que salió mal, pero cuando se trata del mundo real, poner en juego algunas salvaguardias parece lo más sensato. Esta vez no, Skynet. Te prefiero con un plato de palomitas de maíz en el sofá, y ahí es donde deberías quedarte.