OpenAI le da a ChatGPT un recuerdo


OpenAI dice que la memoria de ChatGPT está habilitada de forma predeterminada, lo que significa que el usuario debe desactivarla activamente. La memoria se puede borrar en cualquier momento, ya sea en la configuración o simplemente indicando al robot que la borre. Una vez que se borra la configuración de Memoria, esa información no se utilizará para entrenar su modelo de IA. No está claro exactamente cuántos de esos datos personales se utilizan para entrenar la IA. mientras alguien está charlando con el chatbot. Y desactivar la Memoria no significa que haya optado por no dejar que sus chats entrenen el modelo de OpenAI; esa es una opción de exclusión separada.

La compañía también afirma que no almacenará cierta información confidencial en la Memoria. Si le dice a ChatGPT su contraseña (no haga esto) o su número de Seguro Social (o esto), afortunadamente la Memoria de la aplicación se olvida. Jang también dice que OpenAI todavía está solicitando comentarios sobre si otra información de identificación personal, como el origen étnico de un usuario, es demasiado sensible para que la empresa la capture automáticamente.

«Creemos que hay muchos casos útiles para ese ejemplo, pero por ahora hemos entrenado el modelo para evitar recordar esa información de manera proactiva», dice Jang.

Es fácil ver cómo la función de Memoria de ChatGPT podría salir mal: casos en los que un usuario podría haber olvidado que una vez le preguntó al chatbot sobre un problema, una clínica de abortos o una forma no violenta de tratar con una suegra, solo para ser recordarlo o hacer que otros lo vean en un chat futuro. Cómo maneja la memoria de ChatGPT los datos de salud también es una pregunta abierta. «Evitamos que ChatGPT recuerde ciertos detalles de salud, pero esto aún es un trabajo en progreso», dice el portavoz de OpenAI, Niko Felix. De esta manera, ChatGPT es la misma canción, solo que en una nueva era, sobre la permanencia de Internet: mire esta nueva y excelente característica de Memoria, hasta que sea un error.

OpenAI tampoco es la primera entidad que juega con la memoria en la IA generativa. Google ha hecho hincapié en la tecnología “multiturno” en Gemini 1.0, su propio LLM. Esto significa que puede interactuar con Gemini Pro mediante un mensaje de un solo turno (un intercambio entre el usuario y el chatbot) o tener una conversación continua de varios turnos en la que el bot «recuerda» el contexto de mensajes anteriores.

Una empresa de marcos de inteligencia artificial llamada LangChain ha estado desarrollando un módulo de memoria que ayuda a los modelos de lenguaje grandes a recordar interacciones previas entre un usuario final y el modelo. Darles a los LLM una memoria a largo plazo «puede ser muy poderoso para crear experiencias LLM únicas: un chatbot puede comenzar a adaptar sus respuestas hacia usted como individuo en función de lo que sabe sobre usted», dice Harrison Chase, cofundador y director ejecutivo de LangChain. “La falta de memoria a largo plazo también puede crear una experiencia irritante. Nadie quiere tener que decirle una y otra vez a un chatbot que recomienda restaurantes que es vegetariano”.

A esta tecnología a veces se la denomina “retención de contexto” o “contexto persistente” en lugar de “memoria”, pero el objetivo final es el mismo: que la interacción persona-computadora se sienta tan fluida, tan natural, que el usuario pueda olvidarla fácilmente. lo que el chatbot podría recordar. Esto también es una ventaja potencial para las empresas que implementan estos chatbots y que quieran mantener una relación continua con el cliente del otro lado.

«Puedes considerarlos como una serie de tokens que se anteponen a tus conversaciones», dice Liam Fedus, científico investigador de OpenAI. “El robot tiene algo de inteligencia y detrás de escena mira los recuerdos y dice: ‘Parece que están relacionados; Déjame fusionarlos.’ Y eso luego va a parar a tu presupuesto simbólico”.

Fedus y Jang dicen que la memoria de ChatGPT no se acerca a la capacidad del cerebro humano. Y, sin embargo, casi al mismo tiempo, Fedus explica que con la memoria de ChatGPT, estás limitado a «unos pocos miles de tokens». Si solo.

¿Es este el asistente virtual hipervigilante que se les ha prometido a los consumidores de tecnología durante la última década, o simplemente otro esquema de captura de datos que utiliza sus gustos, preferencias y datos personales para servir mejor a una empresa de tecnología que a sus usuarios? Posiblemente ambas cosas, aunque es posible que OpenAI no lo exprese de esa manera. «Creo que los asistentes del pasado simplemente no tenían la inteligencia», dijo Fedus, «y ahora estamos llegando a ese punto».

Will Knight contribuyó a esta historia.



Source link-46