El gran pretendiente | TechCrunch


hay un buen razón para no confiar en lo que le dicen las construcciones de IA de hoy, y no tiene nada que ver con la naturaleza fundamental de la inteligencia o la humanidad, con los conceptos wittgensteinianos de representación del lenguaje, o incluso con la desinformación en el conjunto de datos. Lo único que importa es que estos sistemas no distinguen entre algo que es correcto y algo que aspecto correcto. Una vez que comprendes que la IA considera estas cosas más o menos intercambiables, todo tiene mucho más sentido.

Ahora bien, no pretendo acortar ninguna de las fascinantes y amplias discusiones acerca de que esto sucede continuamente en todos los medios y conversaciones. Tenemos a todos, desde filósofos y lingüistas hasta ingenieros y piratas informáticos, cantineros y bomberos, cuestionando y debatiendo qué son realmente la «inteligencia» y el «lenguaje», y si algo como ChatGPT los posee.

¡Esto es increíble! Y ya he aprendido mucho ya que algunas de las personas más inteligentes en este espacio disfrutan de su momento bajo el sol, mientras que de la boca de chicas comparativas surgen nuevas perspectivas frescas.

Pero al mismo tiempo, es mucho para ordenar con una cerveza o un café cuando alguien pregunta «¿qué pasa con todas estas cosas de GPT? Da un poco de miedo lo inteligente que se está volviendo la IA, ¿verdad?» ¿Por dónde empiezas, con Aristóteles, el turco mecánico, el perceptrón o «Todo lo que necesitas es atención»?

Durante uno de estos chats, encontré un enfoque simple que descubrí que ayuda a las personas a comprender por qué estos sistemas pueden ser realmente geniales y también totalmente desconfiables, sin restar nada a su utilidad en algunos dominios y las conversaciones increíbles que se tienen alrededor. a ellos. Pensé en compartirlo en caso de que encuentre útil la perspectiva cuando hable sobre esto con otras personas curiosas y escépticas que, sin embargo, no quieren escuchar sobre vectores o matrices.

Solo hay tres cosas que entender, que llevan a una conclusión natural:

  1. Estos modelos se crean haciendo que observen las relaciones entre palabras y oraciones, etc. en un enorme conjunto de datos de texto, y luego construyan su propio mapa estadístico interno de cómo se asocian y correlacionan todos estos millones y millones de palabras y conceptos. Nadie ha dicho, esto es un sustantivo, esto es un verbo, esto es una receta, esto es un recurso retórico; pero estas son cosas que aparecen naturalmente en los patrones de uso.
  2. A estos modelos no se les enseña específicamente cómo responder preguntas, en contraste con las compañías de software familiares como Google y Apple que han estado llamando IA durante la última década. Aquellos son básicamente Mad Libs con los espacios en blanco que conducen a las API: cada pregunta se tiene en cuenta o produce una respuesta genérica. Con grandes modelos de lenguaje, la pregunta es solo una serie de palabras como cualquier otra.
  3. Estos modelos tienen una cualidad expresiva fundamental de “confianza” en sus respuestas. En un ejemplo simple de una IA de reconocimiento de gatos, pasaría de 0, lo que significa que está completamente seguro de que no es un gato, a 100, lo que significa que está absolutamente seguro de que es un gato. Puede decirle que diga «sí, es un gato» si tiene una confianza de 85 o 90, lo que produzca su métrica de respuesta preferida.

Entonces, dado lo que sabemos sobre cómo funciona el modelo, aquí está la pregunta crucial: ¿De qué depende? acerca de? No sabe qué es un gato o una pregunta, solo las relaciones estadísticas encontradas entre los nodos de datos en un conjunto de entrenamiento. Un ajuste menor haría que el detector de gatos tuviera la misma confianza en que la imagen mostraba una vaca, el cielo o una pintura de naturaleza muerta. El modelo no puede confiar en su propio «conocimiento» porque no tiene forma de evaluar realmente el contenido de los datos con los que ha sido entrenado.

La IA está expresando cuán segura está de que su respuesta parece correcto para el usuario.

Esto es cierto para el detector de gatos, y es cierto para GPT-4: la diferencia es una cuestión de longitud y complejidad de la salida. La IA no puede distinguir entre una respuesta correcta y una incorrecta; solo puede hacer una predicción de Qué tan probable una serie de palabras debe aceptarse como correcta. Es por eso que debe ser considerado el charlatán mejor informado del mundo en lugar de una autoridad en cualquier tema. Ni siquiera sabe que te está mintiendo. ha sido entrenado para producir una respuesta que estadísticamente se asemeja a una respuesta correctay dirá cualquier cosa para mejorar ese parecido.

La IA no sabe la respuesta a ninguna pregunta, porque no entiende la pregunta. No sabe qué son las preguntas. ¡No “sabe” nada! La respuesta sigue a la pregunta porque, extrapolando de su análisis estadístico, es más probable que esa serie de palabras siga a la serie de palabras anterior. Si esas palabras se refieren a lugares, personas, ubicaciones, etc. reales, no es material, solo que son como los verdaderos.

Es la misma razón por la que AI puede producir una pintura similar a Monet que no es un Monet: lo único que importa es que tiene todas las características que hacen que las personas identifiquen una obra de arte como suya. La IA de hoy se aproxima a las respuestas fácticas de la misma manera que se aproximaría a los «nenúfares».

Ahora, me apresuro a agregar que este no es un concepto original o innovador, es básicamente otra forma de explicar el loro estocástico o el pulpo submarino. Esos problemas fueron identificados muy temprano por personas muy inteligentes y representan una gran razón para leer ampliamente los comentarios sobre asuntos tecnológicos.

Pero en el contexto de los sistemas de chatbot de hoy, descubrí que las personas intuitivamente obtienen este enfoque: los modelos no entienden hechos o conceptos, pero las relaciones entre palabras y sus respuestas son una «impresión artística» de una respuesta. Su objetivo, cuando te pones manos a la obra, es llenar el espacio en blanco convincentementeno correctamente. Esta es la razón por la que fundamentalmente no se puede confiar en sus respuestas.

Por supuesto, a veces, incluso muchas veces, su respuesta es ¡correcto! Y eso no es un accidente: para muchas preguntas, la respuesta que parece más correcta es la respuesta correcta. Eso es lo que hace que estos modelos sean tan poderosos y peligrosos. Hay tanto, tanto que puede extraer de un estudio sistemático de millones de palabras y documentos. Y a diferencia de la recreación exacta de «Nenúfares», hay una flexibilidad en el lenguaje que permite que una aproximación de una respuesta fáctica también sea fáctica, pero también hace que una respuesta total o parcialmente inventada parezca tanto o más. Lo único que le importa a la IA es que la respuesta sea correcta.

Esto deja la puerta abierta a discusiones sobre si esto es realmente conocimiento, qué es lo que los modelos “entienden”, si han logrado alguna forma de inteligencia, qué es la inteligencia, etc. ¡Traiga el Wittgenstein!

Además, también deja abierta la posibilidad de usar estas herramientas en situaciones donde la verdad no es realmente una preocupación. Si desea generar cinco variantes de un párrafo de apertura para sortear el bloqueo del escritor, una IA podría ser indispensable. Si quieres inventar una historia sobre dos animales en peligro de extinción o escribir un soneto sobre Pokémon, hazlo. Siempre que no sea crucial que la respuesta refleje la realidad, un modelo de lenguaje grande es un socio dispuesto y capaz, y no por casualidad, ahí es donde la gente parece divertirse más con él.

Dónde y cuándo la IA se equivoca es muy, muy difícil de predecir porque los modelos son demasiado grandes y opacos. Imagine un catálogo de fichas del tamaño de un continente, organizado y actualizado durante un período de cien años por robots, a partir de los primeros principios que se les ocurrieron sobre la marcha. ¿Crees que puedes simplemente entrar y entender el sistema? Da una respuesta correcta a una pregunta difícil y una respuesta incorrecta a una fácil. ¿Por qué? En este momento, esa es una pregunta que ni AI ni sus creadores pueden responder.

Esto bien puede cambiar en el futuro, tal vez incluso en un futuro próximo. Todo se mueve tan rápido e impredeciblemente que nada es seguro. Pero por el momento, este es un modelo mental útil a tener en cuenta: la IA quiere que le creas y dirá cualquier cosa para mejorar sus posibilidades.



Source link-48