Un comité del gobierno del Reino Unido preguntó directamente a los jefes de Microsoft y Meta si un «modelo de IA se identifica como inseguro», ¿podrían recordarlo? Eludieron la pregunta casi por completo.


El comité digital y de comunicaciones de la Cámara de los Lores se reunió hoy con Rob Sherman, vicepresidente de políticas y director adjunto de privacidad de Meta, y Owen Larter, director de políticas públicas globales de IA responsable en Microsoft, para discutir grandes modelos de lenguaje y algunos de los aspectos más amplios. Implicaciones de la IA. En una discusión de amplio alcance en la que se dijeron muchas palabras y no se transmitió mucha información real, un dato en particular llamó nuestra atención.

Cuando la presidenta del comité, la baronesa Stowell de Beeston, le preguntó directamente si alguna de las empresas era capaz de retirar un modelo de IA si había sido «identificado como inseguro», o detener su implementación y cómo podría funcionar, Rob Sherman dio una respuesta un tanto confusa:



Source link-8