Microsoft lanza chatbot con inteligencia artificial para espías


Microsoft ha introducido un modelo de IA generativa basado en GPT-4 diseñado específicamente para las agencias de inteligencia estadounidenses que opera desconectado de Internet, según un informe de Bloomberg. Según se informa, esta es la primera vez que Microsoft implementa un modelo de lenguaje importante en un entorno seguro, diseñado para permitir a las agencias de espionaje analizar información ultrasecreta sin riesgos de conectividad y para permitir conversaciones seguras con un chatbot similar a ChatGPT y Microsoft Copilot. Pero también puede inducir a error a los funcionarios si no se utiliza adecuadamente debido a las limitaciones inherentes al diseño de los modelos de lenguaje de IA.

GPT-4 es un modelo de lenguaje grande (LLM) creado por OpenAI que intenta predecir los tokens (fragmentos de datos codificados) más probables en una secuencia. Se puede utilizar para elaborar código informático y analizar información. Cuando se configura como un chatbot (como ChatGPT), GPT-4 puede impulsar asistentes de inteligencia artificial que conversan de manera humana. Microsoft tiene una licencia para utilizar la tecnología como parte de un acuerdo a cambio de grandes inversiones que ha realizado en OpenAI.

Según el informe, el nuevo servicio de IA (que aún no tiene un nombre público) aborda un interés creciente entre las agencias de inteligencia por utilizar IA generativa para procesar datos clasificados, al tiempo que mitiga los riesgos de violaciones de datos o intentos de piratería. ChatGPT normalmente se ejecuta en servidores en la nube proporcionados por Microsoft, lo que puede presentar riesgos de interceptación y fuga de datos. En ese sentido, la CIA anunció su plan para crear un servicio similar a ChatGPT el año pasado, pero se informa que este esfuerzo de Microsoft es un proyecto separado.

William Chappell, director de tecnología de Microsoft para misiones estratégicas y tecnología, señaló a Bloomberg que el desarrollo del nuevo sistema implicó 18 meses de trabajo para modificar una supercomputadora de inteligencia artificial en Iowa. El modelo GPT-4 modificado está diseñado para leer archivos proporcionados por sus usuarios pero no puede acceder a Internet abierto. «Esta es la primera vez que tenemos una versión aislada (cuando aislada significa que no está conectada a Internet) y está en una red especial a la que sólo puede acceder el gobierno de Estados Unidos», dijo Chappell a Bloomberg.

El nuevo servicio se activó el jueves y ahora está disponible para unas 10.000 personas de la comunidad de inteligencia, listo para ser probado más por las agencias pertinentes. Actualmente está «respondiendo preguntas», según Chappell.

Un grave inconveniente de utilizar GPT-4 para analizar datos importantes es que potencialmente puede confabular (inventar) resúmenes inexactos, sacar conclusiones inexactas o proporcionar información inexacta a sus usuarios. Dado que las redes neuronales de IA entrenadas no son bases de datos y operan con probabilidades estadísticas, son recursos factuales deficientes a menos que se complementen con acceso externo a información de otra fuente utilizando una técnica como la generación aumentada de recuperación (RAG).

Dada esa limitación, es muy posible que GPT-4 pueda desinformar o engañar a las agencias de inteligencia de Estados Unidos si no se utiliza adecuadamente. No sabemos qué supervisión tendrá el sistema, si hay limitaciones sobre cómo se puede utilizar o se utilizará, o cómo se puede auditar su precisión. Nos comunicamos con Microsoft para hacer comentarios.



Source link-49