La IA no es ni será malvada ni siquiera inteligente, pero también es irreversiblemente omnipresente


La inteligencia artificial (o más bien, la variedad basada en grandes modelos de lenguaje que nos cautivan actualmente) ya está en el otoño de su ciclo de exageración, pero a diferencia de las criptomonedas, no desaparecerá simplemente en los rincones turbios e indignos de Internet una vez. su estatus de “tendencia” se desvanece. Más bien, se está asentando en un lugar donde su uso ya es común, incluso para propósitos para los cuales es francamente inadecuado. El doomerismo te haría creer que la IA se volverá tan inteligente que esclavizará o extinguirá a la humanidad, pero la realidad es que es mucho más amenazante como una capa omnipresente de error y alucinaciones que se filtra en nuestro agua subterránea intelectual compartida.

El debate doomerismo versus e/acc continúa a buen ritmo, con todos los argumentos fundamentados y basados ​​en hechos de ambos lados que se pueden esperar de las famosas élites con los pies en la tierra de Silicon Valley. El contexto clave para cualquiera de estas figuras de influencia es recordar que pasan toda su carrera alabando o condenando el éxito o el fracaso extremo de cualquier tecnología en la que apuesten o en contra, solo para que dicha tecnología generalmente fracase muy por debajo de cualquiera de los dos. perfecto o el estado catastrófico. Sea testigo de todo siempre, para siempre, pero si busca detalles específicos, la conducción autónoma es una opción reciente muy útil, al igual que la realidad virtual y el metaverso.

Los debates utópicos versus distópicos en tecnología siempre hacen lo que realmente pretenden hacer, que es distraer la atención de tener conversaciones reales sobre el impacto real y actual de la tecnología tal como se implementa y utiliza. Sin duda, la IA ha tenido un impacto enorme, particularmente desde la introducción de ChatGPT hace poco más de un año, pero ese impacto no se trata de si sin querer hemos sembrado las semillas de una deidad virtual, sino de cómo ChatGPT demostró ser mucho más popular, más viral y más pegajoso de lo que sus creadores jamás creyeron posible, incluso cuando sus capacidades en realidad coincidieron con sus expectativas relativamente humildes.

El uso de la IA generativa, según los estudios más recientes, es bastante frecuente y está creciendo, especialmente entre los usuarios más jóvenes. Los usos principales no son novedosos ni divertidos, según un estudio reciente de uso de Salesforce durante el año pasado; en cambio, se está utilizando abrumadoramente para automatizar comunicaciones y tareas laborales. Con algunas raras excepciones, como cuando se utiliza para preparar argumentos legales, las consecuencias de algunas alucinaciones ligeras de la IA al generar estas comunicaciones y el trabajo pesado corporativo son insignificantes, pero sin duda también está dando como resultado un estrato digital que consiste en errores fácticos fáciles de pasar por alto. e imprecisiones menores.

Eso no quiere decir que las personas sean particularmente buenas para difundir información libre de errores fácticos; En realidad, más bien lo contrario, como hemos visto a través del aumento de la economía de la desinformación en las redes sociales, particularmente en los años previos a la presidencia de Trump (inclusive). Incluso dejando de lado las agendas maliciosas y los actos intencionales, el error es sólo una parte integrada de las creencias y la comunicación humanas y, como tal, siempre ha impregnado los acervos de conocimiento compartido.

La diferencia es que los modelos de IA basados ​​en LLM lo hacen de manera casual, constante y sin autorreflexión, y lo hacen con un brillo de confianza autoritaria al que los usuarios son susceptibles debido a muchos años de resultados de búsqueda de Google relativamente estables, objetivos y confiables ( Es cierto que «relativamente» está haciendo mucho trabajo aquí). Al principio, los resultados de búsqueda y los conjuntos de información en línea de crowdsourcing fueron tratados con una buena dosis de escepticismo crítico, pero años o incluso décadas de información bastante confiable proporcionada por la búsqueda de Google, Wikipedia y similares han cortocircuitado nuestra desconfianza en las cosas que regresan. cuando escribimos una consulta en un cuadro de texto en Internet.

Creo que los resultados de que ChatGPT y similares produzcan un volumen masivo de contenido con precisión cuestionable para la comunicación cotidiana servil serán sutiles, pero vale la pena investigarlos y también potencialmente mitigarlos. El primer paso sería examinar por qué la gente siente que, para empezar, puede confiar tanto de esto a la IA en su estado actual; En cualquier automatización de tareas generalizada, el foco principal de la investigación probablemente debería estar en la tarea, no en la automatización. De cualquier manera, sin embargo, los grandes cambios reales e impactantes que trae la IA ya están aquí, y aunque no se parecen en nada a Skynet, son más dignos de estudio que las posibilidades que dependen de que los sueños tecno-optimistas se hagan realidad.



Source link-48