Lo que Robbie de Isaac Asimov enseña sobre la IA y cómo ‘funcionan’ las mentes


En Isaac Asimov clásica historia de ciencia ficción “Robbie”, la familia Weston posee un robot que sirve como niñera y acompañante de su precoz hija preadolescente, Gloria. Gloria y el robot Robbie son amigos; su relación es afectuosa y de cuidado mutuo. Gloria considera a Robbie como su cuidador leal y obediente. Sin embargo, la Sra. Weston se preocupa por esta relación «antinatural» entre el robot y su hijo y se preocupa por la posibilidad de que Robbie le haga daño a Gloria (a pesar de que está programado explícitamente para que no lo haga); está claro que está celosa. Después de varios intentos fallidos de alejar a Gloria de Robbie, su padre, exasperado y agotado por las protestas de la madre, sugiere un recorrido por una fábrica de robots; allí, Gloria podrá ver que Robbie es «solo» un robot fabricado, no un robot. persona, y se desenamoran de ella. Gloria debe venir a aprender cómo trabaja Robbie, cómo se hizo; entonces comprenderá que Robbie no es quien ella cree que es. Este plan no funciona. Gloria no se entera de cómo Robbie “realmente funciona”, y en un giro de la trama, Gloria y Robbie se vuelven aún mejores amigos. La Sra. Weston, la aguafiestas, es frustrada una vez más. Gloria sigue «engañada» acerca de quién es «realmente» Robbie.

¿Cuál es la moraleja de este cuento? Lo más importante es que aquellos que interactúan y socializan con agentes artificiales, sin saber (o preocuparse) cómo “funcionan realmente” internamente, desarrollarán relaciones distintivas con ellos y les atribuirán esas cualidades mentales apropiadas para sus relaciones. Gloria juega con Robbie y lo quiere como compañero; él se preocupa por ella a cambio. Hay un baile interpretativo en el que Gloria participa con Robbie, y las operaciones internas y la constitución de Robbie no tienen relevancia. Cuando surge la oportunidad de aprender tales detalles, más evidencia de la funcionalidad de Robbie (después de que salva a Gloria de un accidente) distrae y evita que Gloria aprenda más.

Hablando filosóficamente, “Robbie” nos enseña que al atribuir una mente a otro ser, no estamos haciendo una declaración sobre el amable de cosa que es, sino más bien, revelando cuán profundamente entendemos cómo obras. Por ejemplo, Gloria cree que Robbie es inteligente, pero sus padres creen que pueden reducir su comportamiento aparentemente inteligente a operaciones mecánicas de nivel inferior. Para ver esto de manera más amplia, observe el caso contrario en el que nos atribuimos cualidades mentales que no estamos dispuestos a atribuir a programas o robots. Estas cualidades, como la inteligencia, la intuición, la perspicacia, la creatividad y la comprensión, tienen esto en común: no sabemos qué son. A pesar de las extravagantes afirmaciones que suelen hacer los profesionales de la neurociencia y la psicología empírica, y diversos científicos cognitivos, estos elogios autodirigidos siguen siendo indefinibles. Cualquier intento de caracterizar uno emplea al otro («la verdadera inteligencia requiere perspicacia y creatividad» o «la verdadera comprensión requiere perspicacia e intuición») y se involucra, no requiere, en un amplio movimiento de manos.

Pero incluso si no estamos muy seguros de cuáles son estas cualidades o en qué se basan, cualquiera que sea la cualidad mental, el proverbial «lego educado» está seguro de que los humanos las tienen y las máquinas como los robots no, incluso si las máquinas actúan como nosotros. , produciendo los mismos productos que hacen los humanos, y ocasionalmente replicando hazañas humanas que se dice que requieren inteligencia, ingenio o cualquier otra cosa. ¿Por qué? Porque, como los padres de Gloria, nosotros saber (gracias a ser informados por los creadores del sistema en medios populares) que “lo único que están haciendo es [table lookup / prompt completion / exhaustive search of solution spaces].” Mientras tanto, los atributos mentales que nos aplicamos a nosotros mismos están tan vagamente definidos, y nuestra ignorancia de nuestras operaciones mentales es tan profunda (actualmente), que no podemos decir que “la intuición humana (perspicacia o creatividad) es simplemente [fill in the blanks with banal physical activity].”

Los debates actuales sobre la inteligencia artificial, entonces, proceden de la forma en que lo hacen porque cada vez que nos enfrentamos a una «inteligencia artificial», una cuyas operaciones (creemos que) entendemos, es fácil responder rápidamente: «Todo lo que hace este agente artificial es X .” Esta descripción reduccionista desmitifica sus operaciones, por lo que estamos seguros de que no es inteligente (ni creativa ni perspicaz). En otras palabras, aquellos seres o cosas cuyas operaciones internas de nivel inferior entendemos y podemos señalar e iluminar, simplemente operan de acuerdo con patrones conocidos de operaciones físicas banales. Esas entidades aparentemente inteligentes cuyas operaciones internas hacemos no entender son capaces de perspicacia, comprensión y creatividad. (El parecido con los humanos también ayuda; negamos más fácilmente la inteligencia a los animales que no se parecen a nosotros).

Pero, ¿y si, como Gloria, no tuviéramos tal conocimiento de lo que está haciendo algún sistema o ser u objeto o extraterrestre cuando produce sus respuestas aparentemente “inteligentes”? ¿Qué cualidades le atribuiríamos para dar sentido a lo que está haciendo? Este nivel de incomprensibilidad quizás se está acercando rápidamente. Sea testigo de las reacciones perplejas de algunos desarrolladores de ChatGPT ante su comportamiento supuestamente «emergente», donde nadie parece saber cómo produjo ChatGPT las respuestas que produjo. Por supuesto, podríamos insistir en que «todo lo que está haciendo es (algún tipo de) finalización rápida». Pero en realidad, también podríamos decir acerca de los humanos: «Son solo neuronas disparando». Pero ni ChatGPT ni los humanos tendrían sentido para nosotros de esa manera.

La evidencia sugiere que si nos encontráramos con una entidad lo suficientemente complicada e interesante que parece inteligente, pero no sabemos cómo funciona y no podemos pronunciar nuestra línea despectiva habitual, «Todos X hace es y”, comenzaríamos a usar el lenguaje de la “psicología popular” para gobernar nuestras interacciones con él, para comprender por qué hace lo que hace y, lo que es más importante, para tratar de predecir su comportamiento. Por analogía histórica, cuando no sabíamos qué movía el océano y el sol, les concedíamos estados mentales. (“El mar furioso cree que los acantilados son sus enemigos mortales”. O “El sol quiere ponerse rápido”). Una vez que supimos cómo funcionaban, gracias a nuestro creciente conocimiento de las ciencias físicas, los degradamos a objetos puramente físicos. (¡Un movimiento con consecuencias ambientales desastrosas!) De manera similar, una vez que perdemos la comprensión de las partes internas de los sistemas de inteligencia artificial, o crecemos con ellos, sin saber cómo funcionan, también podemos atribuirles mentes. Esta es una cuestión de decisión pragmática, no de descubrimiento. Porque esa podría ser la mejor manera de entender por qué y qué hacen.



Source link-46