Modelos de IA “alucinantes” ayudan a acuñar la palabra del año del Diccionario Cambridge


Agrandar / Una captura de pantalla del sitio web del Diccionario Cambridge donde anunció su palabra del año 2023, «alucinar».

El miércoles, el Diccionario Cambridge anunció que su palabra del año 2023 es «alucinar», debido a la popularidad de los grandes modelos de lenguaje (LLM) como ChatGPT, que a veces producen información errónea. El Diccionario también publicó un sitio ilustrado que explica el término y dice: «Cuando una inteligencia artificial alucina, produce información falsa».

«El equipo del Diccionario de Cambridge eligió alucinar como palabra del año 2023 porque reconoció que el nuevo significado llega al corazón de por qué la gente habla de IA», escribe el diccionario. «La IA generativa es una herramienta poderosa, pero todos todavía estamos aprendiendo cómo interactuar de manera segura y efectiva; esto significa ser conscientes tanto de sus fortalezas potenciales como de sus debilidades actuales».

Como hemos cubierto anteriormente en varios artículos, la «alucinación» en relación con la IA se originó como un término artístico en el espacio del aprendizaje automático. Cuando los LLM comenzaron a usarse de manera generalizada a través de aplicaciones como ChatGPT a fines del año pasado, el término se extendió al uso general y comenzó a causar confusión entre algunos, que lo vieron como un antropomorfismo innecesario. La primera definición de alucinación (para humanos) del Diccionario Cambridge es «parecer ver, oír, sentir u oler algo que no existe». Implica percepción desde una mente consciente y algún objeto a esa asociación.

Como todas las palabras, su definición depende en gran medida del contexto. Cuando los investigadores de aprendizaje automático utilizan el término alucinar (lo que todavía hacen con frecuencia, a juzgar por los artículos de investigación), normalmente entienden las limitaciones de un LLM (por ejemplo, que el modelo de IA no está vivo o «consciente» según los estándares humanos), pero la el público en general puede que no. Entonces, en un artículo que explora las alucinaciones en profundidad a principios de este año, sugerimos un término alternativo, «confabulación», que quizás describe con mayor precisión el principio creativo de llenado de vacíos de los modelos de IA en funcionamiento sin el bagaje de percepción. (Y adivina qué: eso también está en el Diccionario de Cambridge).

«El uso generalizado del término ‘alucinar’ para referirse a errores cometidos por sistemas como ChatGPT proporciona una instantánea fascinante de cómo pensamos y antropomorfizamos la IA», dijo Henry Shevlin, especialista en ética de la IA de la Universidad de Cambridge, en un comunicado. . «A medida que avance esta década, espero que nuestro vocabulario psicológico se amplíe aún más para abarcar las extrañas habilidades de las nuevas inteligencias que estamos creando».

Las alucinaciones han provocado problemas legales tanto para particulares como para empresas durante el año pasado. En mayo, un abogado que citó casos falsos inventados por ChatGPT tuvo problemas con un juez y luego fue multado. En abril, Brian Hood demandó a OpenAI por difamación cuando ChatGPT afirmó falsamente que Hood había sido condenado por un escándalo de soborno en el extranjero. Posteriormente se resolvió extrajudicialmente.

En verdad, los LLM «alucinan» todo el tiempo. Reúnen asociaciones entre conceptos a partir de lo que han aprendido durante el entrenamiento (y el posterior ajuste), y no siempre es una inferencia precisa. Cuando haya lagunas en el conocimiento, generarán la respuesta que suene más probable. Muchas veces, eso puede ser correcto, dados los datos de entrenamiento de alta calidad y el ajuste adecuado, pero otras veces no lo es.

Hasta ahora, parece que OpenAI ha sido la única empresa de tecnología que ha tomado medidas drásticas contra las alucinaciones erróneas con GPT-4, que es una de las razones por las que ese modelo todavía se considera a la cabeza. La forma en que lograron esto es parte del secreto de OpenAI, pero el científico jefe de OpenAI, Illya Sutstkever, mencionó anteriormente que cree que RLHF puede proporcionar una forma de reducir las alucinaciones en el futuro. (RLHF, o aprendizaje por refuerzo a través de retroalimentación humana, es un proceso mediante el cual los humanos califican las respuestas de un modelo de lenguaje y esos resultados se utilizan para perfeccionar aún más el modelo).

Wendalyn Nichols, directora de publicaciones del Diccionario Cambridge, dijo en un comunicado: «El hecho de que las IA puedan ‘alucinar’ nos recuerda que los humanos todavía necesitan aportar sus habilidades de pensamiento crítico al uso de estas herramientas. Las IA son fantásticas para procesar enormes cantidades de datos para extraer información específica y consolidarla. Pero cuanto más originales les pides que sean, más probabilidades hay de que se extravíen».

Según el diccionario, ha sido un año excepcional para las palabras de IA. Cambridge dice que agregó otros términos relacionados con la IA a su diccionario en 2023, incluidos «modelo de lenguaje grande», «AGI», «IA generativa» y «GPT».



Source link-49