La IA está entrando en una era de control corporativo


Un informe anual sobre el progreso de la IA ha destacado el dominio cada vez mayor de los actores de la industria sobre la academia y el gobierno en la implementación y protección de las aplicaciones de IA.

El índice de IA de 2023, compilado por investigadores de la Universidad de Stanford y empresas de IA como Google, Anthropic y Hugging Face, sugiere que el mundo de la IA está entrando en una nueva fase de desarrollo. Durante el año pasado, una gran cantidad de herramientas de IA se generalizaron, desde chatbots como ChatGPT hasta software de generación de imágenes como Midjourney. Pero las decisiones sobre cómo implementar esta tecnología y cómo equilibrar el riesgo y la oportunidad están firmemente en manos de los actores corporativos.

La IA de vanguardia requiere enormes recursos, poniendo la investigación fuera del alcance de la academia

El Índice de IA establece que, durante muchos años, la academia lideró el camino en el desarrollo de sistemas de IA de última generación, pero ahora la industria se ha hecho cargo con firmeza. “En 2022, hubo 32 modelos importantes de aprendizaje automático producidos por la industria en comparación con solo tres producidos por la academia”, dice. Esto se debe principalmente a las demandas cada vez mayores de recursos (en términos de datos, personal y potencia informática) necesarios para crear dichas aplicaciones.

En 2019, por ejemplo, OpenAI creó GPT-2, uno de los primeros modos de lenguaje grande, o LLM, la misma clase de aplicación utilizada para potenciar ChatGPT y el chatbot Bing de Microsoft. El entrenamiento de GPT-2 costó aproximadamente $ 50,000 y contiene 1,5 mil millones de parámetros (una métrica que rastrea el tamaño y la sofisticación relativa de un modelo). Avance hasta 2022 y Google creó su propio LLM de última generación, llamado PaLM. Esto costó aproximadamente $ 8 millones para entrenar y contiene 540 mil millones de parámetros, lo que lo hace 360 ​​veces más grande que GPT-2 y 160 veces más costoso.

Los crecientes requisitos de recursos del desarrollo de IA cambian firmemente el equilibrio de poder hacia los jugadores corporativos. A muchos expertos en el mundo de la IA les preocupa que los incentivos del mundo de los negocios también conduzcan a resultados peligrosos, ya que las empresas se apresuran a sacar productos y dejar de lado las preocupaciones de seguridad en un esfuerzo por superar a los rivales. Esta es una de las razones por las que muchos expertos actualmente piden una desaceleración o incluso una pausa en el desarrollo de IA, como con el carta abierta firmado la semana pasada por figuras como Elon Musk.

A medida que los sistemas de IA se implementan más ampliamente, los incidentes de uso indebido han aumentado enormemente

A medida que las herramientas de IA se generalicen, no sorprende que la cantidad de errores y casos de uso malicioso también aumenten; por sí mismo, no es indicativo de una falta de protección adecuada. Pero otras pruebas sí sugieren una conexión, como la tendencia de empresas como Microsoft y Google a recortan sus equipos de seguridad y ética de IA.

Sin embargo, el informe señala que el interés en la regulación de la IA por parte de legisladores y formuladores de políticas está aumentando. Un análisis de los registros legislativos en 127 países señaló que la cantidad de proyectos de ley que contenían la frase «inteligencia artificial» aumentó de solo uno aprobado en 2016 a 37 aprobados en 2022. En los EE. UU., el escrutinio también está aumentando a nivel estatal, con cinco de esos proyectos de ley propuestos en 2015 a 60 proyectos de ley relacionados con la IA propuestos en 2022. Este mayor interés podría proporcionar un contrapeso a la autorregulación corporativa.

Sin embargo, el informe del índice AI cubre mucho más que esto. Puede léelo completo aquí o vea algunos aspectos destacados seleccionados a continuación:



Source link-37