{"id":554929,"date":"2023-04-04T16:08:12","date_gmt":"2023-04-04T16:08:12","guid":{"rendered":"https:\/\/magazineoffice.com\/el-gran-pretendiente-techcrunch\/"},"modified":"2023-04-04T16:08:16","modified_gmt":"2023-04-04T16:08:16","slug":"el-gran-pretendiente-techcrunch","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/el-gran-pretendiente-techcrunch\/","title":{"rendered":"El gran pretendiente | TechCrunch"},"content":{"rendered":"


\n<\/p>\n

\n

hay un buen<\/span> raz\u00f3n para no confiar en lo que le dicen las construcciones de IA de hoy, y no tiene nada que ver con la naturaleza fundamental de la inteligencia o la humanidad, con los conceptos wittgensteinianos de representaci\u00f3n del lenguaje, o incluso con la desinformaci\u00f3n en el conjunto de datos. Lo \u00fanico que importa es que estos sistemas no distinguen entre algo que es<\/em> correcto y algo que aspecto<\/em> correcto. Una vez que comprendes que la IA considera estas cosas m\u00e1s o menos intercambiables, todo tiene mucho m\u00e1s sentido.<\/p>\n

Ahora bien, no pretendo acortar ninguna de las fascinantes y amplias discusiones acerca de que esto sucede continuamente en todos los medios y conversaciones. Tenemos a todos, desde fil\u00f3sofos y ling\u00fcistas hasta ingenieros y piratas inform\u00e1ticos, cantineros y bomberos, cuestionando y debatiendo qu\u00e9 son realmente la \u00abinteligencia\u00bb y el \u00ablenguaje\u00bb, y si algo como ChatGPT los posee.<\/p>\n

\u00a1Esto es incre\u00edble! Y ya he aprendido mucho ya que algunas de las personas m\u00e1s inteligentes en este espacio disfrutan de su momento bajo el sol, mientras que de la boca de chicas comparativas surgen nuevas perspectivas frescas.<\/p>\n

Pero al mismo tiempo, es mucho para ordenar con una cerveza o un caf\u00e9 cuando alguien pregunta \u00ab\u00bfqu\u00e9 pasa con todas estas cosas de GPT? Da un poco de miedo lo inteligente que se est\u00e1 volviendo la IA, \u00bfverdad?\u00bb \u00bfPor d\u00f3nde empiezas, con Arist\u00f3teles, el turco mec\u00e1nico, el perceptr\u00f3n o \u00abTodo lo que necesitas es atenci\u00f3n\u00bb?<\/p>\n

Durante uno de estos chats, encontr\u00e9 un enfoque simple que descubr\u00ed que ayuda a las personas a comprender por qu\u00e9 estos sistemas pueden ser realmente geniales y tambi\u00e9n totalmente desconfiables, sin restar nada a su utilidad en algunos dominios y las conversaciones incre\u00edbles que se tienen alrededor. a ellos. Pens\u00e9 en compartirlo en caso de que encuentre \u00fatil la perspectiva cuando hable sobre esto con otras personas curiosas y esc\u00e9pticas que, sin embargo, no quieren escuchar sobre vectores o matrices.<\/p>\n

Solo hay tres cosas que entender, que llevan a una conclusi\u00f3n natural:<\/p>\n

    \n
  1. Estos modelos se crean haciendo que observen las relaciones entre palabras y oraciones, etc. en un enorme conjunto de datos de texto, y luego construyan su propio mapa estad\u00edstico interno de c\u00f3mo se asocian y correlacionan todos estos millones y millones de palabras y conceptos. Nadie ha dicho, esto es un sustantivo, esto es un verbo, esto es una receta, esto es un recurso ret\u00f3rico; pero estas son cosas que aparecen naturalmente en los patrones de uso.<\/li>\n
  2. A estos modelos no se les ense\u00f1a espec\u00edficamente c\u00f3mo responder preguntas, en contraste con las compa\u00f1\u00edas de software familiares como Google y Apple que han estado llamando IA durante la \u00faltima d\u00e9cada. Aquellos<\/em> son b\u00e1sicamente Mad Libs con los espacios en blanco que conducen a las API: cada pregunta se tiene en cuenta o produce una respuesta gen\u00e9rica. Con grandes modelos de lenguaje, la pregunta es solo una serie de palabras como cualquier otra.<\/li>\n
  3. Estos modelos tienen una cualidad expresiva fundamental de \u201cconfianza\u201d en sus respuestas. En un ejemplo simple de una IA de reconocimiento de gatos, pasar\u00eda de 0, lo que significa que est\u00e1 completamente seguro de que no es un gato, a 100, lo que significa que est\u00e1 absolutamente seguro de que es un gato. Puede decirle que diga \u00abs\u00ed, es un gato\u00bb si tiene una confianza de 85 o 90, lo que produzca su m\u00e9trica de respuesta preferida.<\/li>\n<\/ol>\n

    Entonces, dado lo que sabemos sobre c\u00f3mo funciona el modelo, aqu\u00ed est\u00e1 la pregunta crucial: \u00bfDe qu\u00e9 depende? acerca de<\/em>? No sabe qu\u00e9 es un gato o una pregunta, solo las relaciones estad\u00edsticas encontradas entre los nodos de datos en un conjunto de entrenamiento. Un ajuste menor har\u00eda que el detector de gatos tuviera la misma confianza en que la imagen mostraba una vaca, el cielo o una pintura de naturaleza muerta. El modelo no puede confiar en su propio \u00abconocimiento\u00bb porque no tiene forma de evaluar realmente el contenido de los datos con los que ha sido entrenado.<\/p>\n

    La IA est\u00e1 expresando cu\u00e1n segura est\u00e1 de que su respuesta parece correcto para el usuario<\/em>.<\/strong><\/p>\n

    Esto es cierto para el detector de gatos, y es cierto para GPT-4: la diferencia es una cuesti\u00f3n de longitud y complejidad de la salida. La IA no puede distinguir entre una respuesta correcta y una incorrecta; solo puede hacer una predicci\u00f3n de Qu\u00e9 tan probable<\/em> una serie de palabras debe aceptarse como correcta. Es por eso que debe ser considerado el charlat\u00e1n mejor informado del mundo en lugar de una autoridad en cualquier tema. Ni siquiera sabe que te est\u00e1 mintiendo. ha sido entrenado para producir una respuesta que estad\u00edsticamente se asemeja a una respuesta correcta<\/em>y dir\u00e1 cualquier cosa<\/em> para mejorar ese parecido.<\/strong><\/p>\n

    La IA no sabe la respuesta a ninguna pregunta, porque no entiende la pregunta. No sabe qu\u00e9 son las preguntas. \u00a1No \u201csabe\u201d nada! La respuesta sigue a la pregunta porque, extrapolando de su an\u00e1lisis estad\u00edstico, es m\u00e1s probable que esa serie de palabras siga a la serie de palabras anterior. Si esas palabras se refieren a lugares, personas, ubicaciones, etc. reales, no es material, solo que son como<\/em> los verdaderos.<\/p>\n

    Es la misma raz\u00f3n por la que AI puede producir una pintura similar a Monet que no es un Monet: lo \u00fanico que importa es que tiene todas las caracter\u00edsticas que hacen que las personas identifiquen una obra de arte como suya. La IA de hoy se aproxima a las respuestas f\u00e1cticas de la misma manera que se aproximar\u00eda a los \u00abnen\u00fafares\u00bb.<\/p>\n

    Ahora, me apresuro a agregar que este no es un concepto original o innovador, es b\u00e1sicamente otra forma de explicar el loro estoc\u00e1stico o el pulpo submarino. Esos problemas fueron identificados muy temprano por personas muy inteligentes y representan una gran raz\u00f3n para leer ampliamente los comentarios sobre asuntos tecnol\u00f3gicos.<\/p>\n

    Pero en el contexto de los sistemas de chatbot de hoy, descubr\u00ed que las personas intuitivamente obtienen este enfoque: los modelos no entienden hechos o conceptos, pero las relaciones entre palabras y sus respuestas son una \u00abimpresi\u00f3n art\u00edstica\u00bb de una respuesta. Su objetivo, cuando te pones manos a la obra, es llenar el espacio en blanco convincentemente<\/em>no correctamente<\/em>. Esta es la raz\u00f3n por la que fundamentalmente no se puede confiar en sus respuestas.<\/p>\n

    Por supuesto, a veces, incluso muchas veces, su respuesta es<\/em> \u00a1correcto! Y eso no es un accidente: para muchas preguntas, la respuesta que parece m\u00e1s correcta es la respuesta correcta. Eso es lo que hace que estos modelos sean tan poderosos y peligrosos. Hay tanto, tanto que puede extraer de un estudio sistem\u00e1tico de millones de palabras y documentos. Y a diferencia de la recreaci\u00f3n exacta de \u00abNen\u00fafares\u00bb, hay una flexibilidad en el lenguaje que permite que una aproximaci\u00f3n de una respuesta f\u00e1ctica tambi\u00e9n sea f\u00e1ctica, pero tambi\u00e9n hace que una respuesta total o parcialmente inventada parezca tanto o m\u00e1s. Lo \u00fanico que le importa a la IA es que la respuesta sea correcta.<\/p>\n

    Esto deja la puerta abierta a discusiones sobre si esto es realmente conocimiento, qu\u00e9 es lo que los modelos \u201centienden\u201d, si han logrado alguna forma de inteligencia, qu\u00e9 es la inteligencia, etc. \u00a1Traiga el Wittgenstein!<\/p>\n

    Adem\u00e1s, tambi\u00e9n deja abierta la posibilidad de usar estas herramientas en situaciones donde la verdad no es realmente una preocupaci\u00f3n. Si desea generar cinco variantes de un p\u00e1rrafo de apertura para sortear el bloqueo del escritor, una IA podr\u00eda ser indispensable. Si quieres inventar una historia sobre dos animales en peligro de extinci\u00f3n o escribir un soneto sobre Pok\u00e9mon, hazlo. Siempre que no sea crucial que la respuesta refleje la realidad, un modelo de lenguaje grande es un socio dispuesto y capaz, y no por casualidad, ah\u00ed es donde la gente parece divertirse m\u00e1s con \u00e9l.<\/p>\n

    D\u00f3nde y cu\u00e1ndo la IA se equivoca es muy, muy dif\u00edcil de predecir porque los modelos son demasiado grandes y opacos. Imagine un cat\u00e1logo de fichas del tama\u00f1o de un continente, organizado y actualizado durante un per\u00edodo de cien a\u00f1os por robots, a partir de los primeros principios que se les ocurrieron sobre la marcha. \u00bfCrees que puedes simplemente entrar y entender el sistema? Da una respuesta correcta a una pregunta dif\u00edcil y una respuesta incorrecta a una f\u00e1cil. \u00bfPor qu\u00e9? En este momento, esa es una pregunta que ni AI ni sus creadores pueden responder.<\/p>\n

    Esto bien puede cambiar en el futuro, tal vez incluso en un futuro pr\u00f3ximo. Todo se mueve tan r\u00e1pido e impredeciblemente que nada es seguro. Pero por el momento, este es un modelo mental \u00fatil a tener en cuenta: la IA quiere que le creas y dir\u00e1 cualquier cosa para mejorar sus posibilidades.<\/p>\n<\/p><\/div>\n


    \n
    Source link-48<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

    hay un buen raz\u00f3n para no confiar en lo que le dicen las construcciones de IA de hoy, y no tiene nada que ver con la naturaleza fundamental de la…<\/p>\n","protected":false},"author":1,"featured_media":554930,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[1119,25657,22367],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/554929"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=554929"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/554929\/revisions"}],"predecessor-version":[{"id":554931,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/554929\/revisions\/554931"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/554930"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=554929"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=554929"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=554929"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}