La computación hiperdimensional reinventa la inteligencia artificial


A pesar de lo salvaje éxito de ChatGPT y otros grandes modelos de lenguaje, las redes neuronales artificiales (ANN) que sustentan estos sistemas podrían estar en el camino equivocado.

Por un lado, las ANN tienen «súper hambre de poder», dijo Cornelia Fermüller, científica informática de la Universidad de Maryland. “Y el otro tema es [their] falta de transparencia.» Dichos sistemas son tan complicados que nadie entiende realmente lo que están haciendo o por qué funcionan tan bien. Esto, a su vez, hace que sea casi imposible hacerlos razonar por analogía, que es lo que hacen los humanos: usar símbolos para objetos, ideas y las relaciones entre ellos.

Es probable que tales deficiencias se deban a la estructura actual de las ANN y sus componentes básicos: las neuronas artificiales individuales. Cada neurona recibe entradas, realiza cálculos y produce salidas. Las ANN modernas son redes elaboradas de estas unidades computacionales, entrenadas para realizar tareas específicas.

Sin embargo, las limitaciones de las ANN han sido obvias durante mucho tiempo. Considere, por ejemplo, una ANN que distingue círculos y cuadrados. Una forma de hacerlo es tener dos neuronas en su capa de salida, una que indique un círculo y otra que indique un cuadrado. Si desea que su ANN también discierna el color de la forma, por ejemplo, azul o rojo, necesitará cuatro neuronas de salida: una para el círculo azul, el cuadrado azul, el círculo rojo y el cuadrado rojo. Más características significan aún más neuronas.

No puede ser así como nuestros cerebros perciben el mundo natural, con todas sus variaciones. “Tienes que proponer que, bueno, tienes una neurona para todas las combinaciones”, dijo Bruno Olshausen, neurocientífico de la Universidad de California, Berkeley. “Entonces, tendrías en tu cerebro, [say,] un detector Volkswagen morado.

En cambio, Olshausen y otros argumentan que la información en el cerebro está representada por la actividad de numerosas neuronas. Entonces, la percepción de un Volkswagen púrpura no está codificada como las acciones de una sola neurona, sino como las de miles de neuronas. El mismo conjunto de neuronas, disparando de manera diferente, podría representar un concepto completamente diferente (quizás un Cadillac rosa).

Este es el punto de partida para un enfoque radicalmente diferente de la computación, conocido como computación hiperdimensional. La clave es que cada pieza de información, como la noción de un automóvil o su marca, modelo o color, o todo junto, se represente como una sola entidad: un vector hiperdimensional.

Un vector es simplemente una matriz ordenada de números. Un vector 3D, por ejemplo, consta de tres números: el X, y, y z coordenadas de un punto en el espacio 3D. Un vector hiperdimensional, o hipervector, podría ser una matriz de 10 000 números, por ejemplo, que representan un punto en un espacio de 10 000 dimensiones. Estos objetos matemáticos y el álgebra para manipularlos son lo suficientemente flexibles y potentes como para llevar la informática moderna más allá de algunas de sus limitaciones actuales y fomentar un nuevo enfoque de la inteligencia artificial.

“Esto es lo que más me ha entusiasmado, prácticamente en toda mi carrera”, dijo Olshausen. Para él y muchos otros, la computación hiperdimensional promete un nuevo mundo en el que la computación es eficiente y robusta y las decisiones tomadas por máquinas son completamente transparentes.

Entrar en espacios de alta dimensión

Para comprender cómo los hipervectores hacen posible la computación, volvamos a las imágenes con círculos rojos y cuadrados azules. Primero, necesitamos vectores para representar las variables FORMA y COLOR. Luego también necesitamos vectores para los valores que se pueden asignar a las variables: CÍRCULO, CUADRADO, AZUL y ROJO.

Los vectores deben ser distintos. Esta distinción se puede cuantificar mediante una propiedad llamada ortogonalidad, que significa estar en ángulo recto. En el espacio 3D, hay tres vectores que son ortogonales entre sí: uno en el X dirección, otra en la y, y un tercero en el z. En un espacio de 10 000 dimensiones, hay 10 000 vectores ortogonales entre sí.



Source link-46