Nvidia Open Source Universal ‘Guardrails’ para mantener a raya a esas tontas IA


El lista creciente de empresas que incorporan IA en sus aplicaciones y plataformas han tenido que crear y ajustar continuamente sus propias soluciones para lidiar con la propensión de AI a mentir, engañar, diseñar, pedir prestado o intercambiar. Ahora, Nvidia busca brindar a más desarrolladores una forma más fácil de decirle a la IA que cierre la trampa.

El martes, Nvidia compartido sus llamados «NeMo Guardrails» que la compañía describió como una especie de bot de censura de talla única para aplicaciones impulsadas por grandes modelos de lenguaje. el software es fuente abiertay se supone que encaja en la parte superior de los juegos de herramientas modernos de uso frecuente como LangChain. Según la empresa blog tecnicoNeMo usa un subsistema específico de IA llamado Colang como una especie de interfaz para definir qué tipo de restricciones en la salida de IA quiere tener cada aplicación.

Aquellos que usan NeMo pueden ayudar a los chatbots a mantenerse en el tema y evitar que arrojen información errónea, ofrezcan respuestas tóxicas o abiertamente racistas, o realicen tareas como crear código malicioso. Nvidia dijo que ya está empleado con la empresa de aplicaciones web Zapier.

El vicepresidente de investigación aplicada de Nvidia, Jonathan Cohen, dijo TechCrunch que si bien la empresa ha estado trabajando en el sistema Guardrails durante años, descubrieron hace un año que este sistema funcionaría bien para Modelos GPT de OpenAI. La página de NeMo dice que funciona sobre modelos de lenguaje más antiguos como GPT-3 de OpenAI y T5 de Google. Nvidia dice que también funciona encima de algunos Modelos de generación de imágenes de IA como Stable Diffusion 1.5 e Imagen. Un portavoz de Nvidia confirmó a Gizmodo que se supone que NeMo funciona con «todos los LLM principales compatibles con LangChain, incluido GPT-4 de OpenAI».

Aún así, no está claro cuánto bien podría lograr una barrera de protección de código abierto. Mientras es posible que no obtengamos un «GPT-5» en el corto plazoOpenAI ya ha intentado comercializar en masa su modelo GPT-4 con su acceso API. Stability AI, los creadores de Stable Diffusion, es también se inclina hacia las empresas con su modelo «XL». Ambas compañías han tratado de asegurar a los clientes que ya hay bloqueos en mal contenido encontrado en las profundidades de los datos de entrenamiento de la IAaunque especialmente con GPT-4, estamos forzado a creer en la palabra de OpenAI.

E incluso si se implementa en el software que mejor lo admite, como LangChain, no es como si NeMo lo captara todo. Las empresas que ya han implementado sistemas de IA lo han descubierto por las malas. Bing AI de Microrosoft comenzó su viaje a principios de este año y los usuarios inmediatamente encontró formas de abusar de él para decir «Heil Hitler» y hacer otras declaraciones racistas. Cada actualización que le dio a la IA un poco más de margen de maniobra demostró cómo se podía explotar su IA.

E incluso si la IA tiene bloques explícitos para cierto contenido, eso no significa que siempre sea perfecto. La semana pasada, Snapchat tomó su chatbot basado en ChatGPT «My AI» fuera de beta y lo impuso a todos sus usuarios. Un usuario demostró que podía manipular la IA para decir la palabra na pesar de que los intentos de otros usuarios con el mismo aviso fueron frustrados por los bloques existentes en la IA.

Es por eso que la mayoría de las implementaciones de IA se han lanzado en una especie de formato «beta». Google tiene llamado el lanzamiento de su Bard AI una «prueba» mientras constantemente tratando de hablar sobre el desarrollo de IA «responsable». Microsoft lanzó su Bing AI basado en ChatGPT de OpenAI a un número limitado de usuarios para comenzar. Los chatbots modernos de IA son el peor tipo de mentiroso. Mienten sin siquiera saber que lo que dicen es falso. Pueden publicar contenido dañino, peligroso y, a menudo, absurdo. sin comprender nada de lo que decía.

Los chatbots de IA son peores que cualquier niño que grite obscenidades en un Walmart porque el niño eventualmente puede aprender. Si se le llama, la IA pretenderá disculparse, pero sin modificar los datos o procesos de aprendizaje de la IA, una IA nunca cambiará. Lo mejor que pueden hacer la mayoría de los desarrolladores de IA para obstaculizar los peores impulsos de la IA es meterla en una jaula como la que encontrarías en la guarida del león en el zoológico local. Necesitas paredes altas para mantener a raya a la IA y, aun así, no metas la mano entre los barrotes.

Y no puedes olvidar cómo todo esto es un gran negocio para Nvidia. Se supone que estas medidas de seguridad promoverán el paquete de software de inteligencia artificial existente de la compañía para las empresas. Nvidia ya es uno de los jugadores más importantes en el espacio de la IA, al menos en términos de hardware. Sus chips de entrenamiento A100 y H100 AI más nuevos representan más del 90% del mercado global para ese tipo de GPU. Según los informes, Microsoft ha estado tratando de encontrar una manera de crear su propio chip de entrenamiento de IA. y salir de debajo del yugo del dominio de Nvidia.





Source link-45