La IA generativa no aprendió nada de la Web 2.0


Si 2022 fue el año en que comenzó el auge de la IA generativa, 2023 fue el año del pánico en la IA generativa. Poco más de 12 meses desde que OpenAI lanzó ChatGPT y estableció un récord para el producto de consumo de más rápido crecimiento, parece haber ayudado también a establecer un récord de intervención gubernamental más rápida en una nueva tecnología. La Comisión Federal de Elecciones de EE. UU. está investigando anuncios de campaña engañosos, el Congreso está pidiendo que se supervise cómo las empresas de IA desarrollan y etiquetan datos de entrenamiento para sus algoritmos, y la Unión Europea aprobó su nueva Ley de IA con ajustes de último momento para responder a la IA generativa.

Pero a pesar de toda la novedad y la velocidad, los problemas de la IA generativa también son dolorosamente familiares. OpenAI y sus rivales que compiten por lanzar nuevos modelos de IA enfrentan problemas que han perseguido a las plataformas sociales, esa nueva tecnología que anteriormente dio forma a la era, durante casi dos décadas. Empresas como Meta nunca lograron dominar la información errónea y la desinformación, las prácticas laborales incompletas y la pornografía no consensuada, por nombrar sólo algunas de sus consecuencias no deseadas. Ahora esas cuestiones están cobrando una nueva y desafiante vida, con un giro de la IA.

«Estos son problemas completamente predecibles», dice Hany Farid, profesor de la Escuela de Información de UC Berkeley, sobre los dolores de cabeza que enfrentan OpenAI y otros. «Creo que se podían prevenir».

Camino bien transitado

En algunos casos, las empresas de IA generativa se basan directamente en una infraestructura problemática implementada por empresas de redes sociales. Facebook y otros empezaron a depender de trabajadores de moderación de contenidos subcontratados y mal pagados (a menudo en el Sur Global) para mantener a raya contenidos como discursos de odio o imágenes con desnudos o violencia.

Ahora se está recurriendo a esa misma fuerza laboral para ayudar a entrenar modelos de IA generativa, a menudo con salarios igualmente bajos y condiciones de trabajo difíciles. Debido a que la subcontratación coloca funciones cruciales de una plataforma social o empresa de IA administrativamente alejadas de su sede, y a menudo en otro continente, los investigadores y reguladores pueden tener dificultades para obtener una imagen completa de cómo se construye y gobierna un sistema de IA o una red social.

La subcontratación también puede ocultar dónde reside realmente la verdadera inteligencia dentro de un producto. Cuando un contenido desaparece, ¿fue eliminado por un algoritmo o por uno de los miles de moderadores humanos? Cuando un chatbot de servicio al cliente ayuda a un cliente, ¿cuánto crédito se le debe a la IA y cuánto al trabajador en un centro de subcontratación sobrecalentado?

También hay similitudes en cómo las empresas de IA y las plataformas sociales responden a las críticas sobre sus efectos nocivos o no deseados. Las empresas de IA hablan de implementar políticas de “salvaguardias” y de “uso aceptable” en ciertos modelos de IA generativa, del mismo modo que las plataformas tienen sus términos de servicio sobre qué contenido está permitido y qué no. Al igual que con las reglas de las redes sociales, las políticas y protecciones de la IA han demostrado ser relativamente fáciles de eludir.



Source link-46