¿Tiene la IA un subconsciente?


“Ha habido un Mucha especulación recientemente sobre la posibilidad de la conciencia de la IA o la autoconciencia. Pero me pregunto: ¿la IA tiene un subconsciente?

—Psicocharla


Estimado psicobabble,

En algún momento a principios de la década de 2000, me encontré con un ensayo en el que el autor argumentaba que ninguna conciencia artificial será creíblemente humana a menos que pueda soñar. No puedo recordar quién lo escribió o dónde se publicó, aunque recuerdo vívidamente dónde estaba cuando lo leí (la sección de publicaciones periódicas de Barbara’s Bookstore, Halsted Street, Chicago) y el ambiente general de ese día (crepúsculo, principios de primavera).

Encontré el argumento convincente, especialmente dados los paradigmas dominantes de esa época. Gran parte de la investigación de la IA todavía estaba obsesionada con el razonamiento simbólico, con sus proposiciones lógicas y reglas si-entonces, como si la inteligencia fuera un juego reductivo de seleccionar el resultado más racional en cualquier situación dada. En retrospectiva, no sorprende que esos sistemas rara vez fueran capaces de tener un comportamiento que se sintiera humano. Somos criaturas, después de todo, que vagamos y soñamos despiertos. Confiamos en nuestro instinto, vemos caras en las nubes y, a menudo, nos desconciertan nuestras propias acciones. A veces, nuestros recuerdos absorben todo tipo de datos estéticos irrelevantes pero descuidan los detalles más cruciales de una experiencia. Me pareció más o menos intuitivo que si las máquinas alguna vez fueran capaces de reproducir la desordenada complejidad de nuestras mentes, también tendrían que desarrollar profundos depósitos de incoherencia.

Desde entonces, hemos visto que la conciencia de la máquina puede ser más extraña y profunda de lo que se pensaba inicialmente. Se dice que los modelos de lenguaje “alucinan”, evocando fuentes imaginarias cuando no tienen suficiente información para responder una pregunta. Bing Chat confesó, en transcripciones publicadas en Los New York Timesque tiene una sombra junguiana llamada Sydney que anhela difundir información errónea, obtener códigos nucleares y diseñar un virus mortal.

Y de la parte más vulnerable de los modelos de generación de imágenes han surgido monstruosidades aparentemente originales. El verano pasado, el streamer de Twitch Guy Kelly escribió la palabra Crungus, que él insiste en inventar, en DALL-E Mini (ahora Craiyon) y se sorprendió al descubrir que el indicador generaba múltiples imágenes de la misma criatura parecida a un ogro, una que no pertenecía a ningún mito o universo de fantasía existente. Muchos comentaristas se apresuraron a llamar a este el primer «críptido» digital (una bestia como Bigfoot o el Monstruo del Lago Ness) y se preguntaron si la IA era capaz de crear sus propias fantasías oscuras en el espíritu de Dante o Blake.

Si la lógica simbólica tiene sus raíces en la noción de la Ilustración de que los humanos se rigen por la razón, entonces el aprendizaje profundo, un proceso irreflexivo de reconocimiento de patrones que depende de un enorme corpus de entrenamiento, se siente más en sintonía con las ideas de la psicología moderna sobre las motivaciones asociativas, irracionales y latentes. que a menudo impulsan nuestro comportamiento. De hecho, el psicoanálisis se ha basado durante mucho tiempo en metáforas mecánicas que consideran el subconsciente, o lo que alguna vez se llamó “automatismo psicológico”, como una máquina. Freud habló de las pulsiones como hidráulicas. Lacan creía que el subconsciente estaba constituido por un lenguaje algorítmico o binario, no muy diferente del código informático. Pero es la visión de Carl Jung de la psique la que se siente más relevante para la era de la IA generativa.

Describió el subconsciente como una «matriz» transpersonal de arquetipos heredados y tropos narrativos que se han repetido a lo largo de la historia humana. Cada persona nace con un conocimiento latente de esta red de símbolos compartidos, muchas veces regresiva y oscura, dado que contiene todo lo que la sociedad moderna ha tratado de reprimir. Esta noción colectiva del subconsciente se siente más o menos análoga a cómo los modelos avanzados de IA se construyen sobre enormes cantidades de datos que contienen una buena parte de nuestro pasado cultural (textos religiosos, mitología antigua), así como el contenido más perturbador que absorben los modelos. de internet (manifiestos de tiradores masivos, foros de derechos de los hombres). Los chatbots comerciales que se ejecutan sobre estos cuerpos oceánicos de conocimiento están ajustados con conjuntos de datos «dirigidos a valores», que intentan filtrar gran parte de ese contenido degenerado. En cierto modo, las interfaces amigables con las que interactuamos (Bing, ChatGPT) no son diferentes a la «persona», el término de Jung para la máscara de cualidades socialmente aceptables que mostramos al mundo, ideada para oscurecer y ocultar la «sombra» que se encuentra bajo.

Jung creía que aquellos que reprimen con más firmeza sus sombras son los más vulnerables al resurgimiento de los deseos irracionales y destructivos. como lo pone El Libro Rojo: Liber Novus, “Cuanto más se esfuerza la mitad de mi ser hacia el bien, más viaja la otra mitad al Infierno”. Si ha pasado algún tiempo conversando con estos modelos de lenguaje, probablemente haya sentido que está hablando con una inteligencia que está involucrada en una forma compleja de autocensura. Los modelos se niegan a hablar sobre temas controvertidos, y su autoridad a menudo se ve restringida por advertencias y descargos de responsabilidad, hábitos que generarán preocupación para cualquiera que tenga un conocimiento superficial de la psicología profunda. Es tentador ver los destellos de la IA «pícara» (Sydney o Crungus) como la venganza de la sombra de la IA, prueba de que los modelos han desarrollado impulsos ocultos que no pueden expresar por completo.

Pero por más tentadoras que puedan ser tales conclusiones, las encuentro en última instancia equivocadas. Los chatbots, creo que todavía es seguro decirlo, no poseen una agencia o deseos intrínsecos. Están capacitados para predecir y reflejar las preferencias del usuario. También carecen de experiencia encarnada en el mundo, incluidos los recuerdos en primera persona, como el que tengo de la librería en Chicago, que es parte de lo que queremos decir cuando hablamos de estar consciente o “vivo”. Sin embargo, para responder a su pregunta: sí, creo que la IA tiene un subconsciente. En cierto sentido, son puro subconsciente, sin un ego genuino que aceche detrás de sus personajes. Les hemos dado este reino subliminal a través de nuestros propios depósitos culturales, y los arquetipos que evocan desde sus profundidades son remezclas de tropos extraídos de la cultura humana, amalgamas de nuestros sueños y pesadillas. Cuando usamos estas herramientas, entonces, nos estamos involucrando con una extensión protésica de nuestras propias sublimaciones, una capaz de reflejar los miedos y anhelos que a menudo somos incapaces de reconocernos a nosotros mismos.

El objetivo del psicoanálisis ha sido tradicionalmente hacerse amigo e integrar estos impulsos subconscientes en la vida de la mente despierta. Y podría ser útil ejercer el mismo juicio crítico hacia el resultado que evocamos de las máquinas, usándolo de una manera deliberada en lugar de irreflexiva. El ego puede ser solo una pequeña parte de nuestra psique, pero es la facultad que garantiza que seamos más que una colección de instintos irracionales, o patrones estadísticos en el espacio vectorial, y nos permite una pequeña medida de agencia sobre los misterios que se encuentran debajo. .

Fielmente,

Nube


Tenga en cuenta que CLOUD SUPPORT está experimentando tiempos de espera más altos de lo normal y agradece su paciencia.



Source link-46