El comité digital y de comunicaciones de la Cámara de los Lores se reunió hoy con Rob Sherman, vicepresidente de políticas y director adjunto de privacidad de Meta, y Owen Larter, director de políticas públicas globales de IA responsable en Microsoft, para discutir grandes modelos de lenguaje y algunos de los aspectos más amplios. Implicaciones de la IA. En una discusión de amplio alcance en la que se dijeron muchas palabras y no se transmitió mucha información real, un dato en particular llamó nuestra atención.
Cuando la presidenta del comité, la baronesa Stowell de Beeston, le preguntó directamente si alguna de las empresas era capaz de retirar un modelo de IA si había sido «identificado como inseguro», o detener su implementación y cómo podría funcionar, Rob Sherman dio una respuesta un tanto confusa:
«Creo que depende de cuál sea la tecnología y cómo se utilice… una de las cosas que es muy importante es pensar en estas cosas desde el principio antes de su lanzamiento… hay una serie de otras medidas que podemos tomar, así que por ejemplo, una vez que se lanza un modelo, hay mucho trabajo que debe hacer lo que llamamos un implementador del modelo, por lo que no hay un solo actor responsable de implementar esta tecnología…
«Cuando lanzamos Llama, [we] publicar una guía de uso responsable que habla sobre los pasos que un implementador de la tecnología puede seguir para asegurarse de que se use de manera segura, y eso incluye cosas como lo que llamamos ajuste fino, que es tomar el modelo y asegurarse de que se use apropiadamente… y luego también filtrar los resultados para asegurarse de que cuando alguien lo esté usando en una capacidad final, el modelo se esté usando de manera responsable y reflexiva».
Owen Larter, de Microsoft, por su parte, no respondió en absoluto, aunque, para ser justos, la discusión fue amplia y un tanto presionada por el tiempo. De todos modos, el hecho de que el representante de Meta no respondiera la pregunta directamente sino que ampliara su respuesta a un punto más amplio sobre el uso responsable por parte de otros no es del todo sorprendente.
A lo largo del debate se habló mucho sobre la necesidad de un manejo cuidadoso de los modelos de IA y los riesgos y preocupaciones potenciales que esta nueva tecnología puede crear.
Sin embargo, más allá de unas pocas concesiones simbólicas a las políticas de uso emergentes y a las asociaciones creadas para discutir el tema, el debate rápidamente se volvió confuso cuando ambos representantes lucharon por definir en algunos puntos qué era lo que estaban debatiendo.
Como dijo amablemente Rob Sherman anteriormente en la discusión con respecto a los riesgos potenciales del uso irresponsable de la IA:
«¿Cuáles son los riesgos en los que estamos pensando, cuáles son las herramientas que tenemos para evaluar si esos riesgos existen y luego qué cosas debemos hacer para mitigarlos?»
Si bien ambos participantes parecían estar de acuerdo en que había una «conversación por tener» sobre los temas discutidos, ninguno parecía particularmente interesado en tener esa conversación, ya sabes, ahora. Cada pregunta fue respondida rápidamente con un flujo rápido de políticas potenciales, futuros mecanismos de evaluación de riesgos y algunas medidas actualmente mal definidas que ya se están tomando, cuya suma total parece equivaler a «estamos trabajando en ello».
Todo esto será de poco consuelo para aquellos preocupados por las implicaciones de largo alcance de la IA y los riesgos potenciales de crear y lanzar una tecnología que incluso las empresas que la crean luchan por concretar en términos significativos.
Hoy puede haber sido una oportunidad para establecer algunos planes firmes sobre cómo regular esta herramienta cada vez más importante, pero más allá de alguna que otra concesión hacia «protecciones de seguridad» y un «enfoque globalmente coherente», parece que el progreso es lento en lo que respecta a controlar y regular la IA de cualquier manera significativa.