Los chatbots de IA se hicieron grandes, y sus banderas rojas éticas se hicieron más grandes


Cada evaluación es una ventana a un modelo de IA, dice Solaiman, no una lectura perfecta de cómo funcionará siempre. Pero espera poder identificar y detener los daños que la IA puede causar porque ya han surgido casos alarmantes, incluidos los jugadores del juego AI Dungeon que usan GPT-3 para generar texto que describe escenas de sexo que involucran a niños. “Ese es un caso extremo de lo que no podemos permitir que suceda”, dice Solaiman.

La última investigación de Solaiman en Hugging Face encontró que las principales empresas de tecnología han adoptado un enfoque cada vez más cerrado a los modelos generativos que lanzaron entre 2018 y 2022. Esa tendencia se aceleró con los equipos de IA de Alphabet en Google y DeepMind, y más ampliamente en las empresas que trabajan en IA después de la lanzamiento por etapas de GPT-2. Las empresas que protegen sus avances como secretos comerciales también pueden hacer que la vanguardia de la IA sea menos accesible para los investigadores marginados con pocos recursos, dice Solaiman.

A medida que se invierte más dinero en grandes modelos de lenguaje, los lanzamientos cerrados están revirtiendo la tendencia observada a lo largo de la historia del campo del procesamiento del lenguaje natural. Tradicionalmente, los investigadores han compartido detalles sobre conjuntos de datos de entrenamiento, pesos de parámetros y código para promover la reproducibilidad de los resultados.

“Sabemos cada vez menos sobre en qué sistemas de bases de datos se entrenaron o cómo se evaluaron, especialmente para los sistemas más poderosos que se lanzan como productos”, dice Alex Tamkin, un estudiante de doctorado de la Universidad de Stanford cuyo trabajo se enfoca en modelos de lenguaje grandes.

Él le da crédito a las personas en el campo de la ética de la IA por crear conciencia pública sobre por qué es peligroso moverse rápido y romper cosas cuando la tecnología se implementa en miles de millones de personas. Sin ese trabajo en los últimos años, las cosas podrían ser mucho peores.

En el otoño de 2020, Tamkin codirigió un simposio con el director de políticas de OpenAI, Miles Brundage, sobre el impacto social de los grandes modelos de lenguaje. El grupo interdisciplinario enfatizó la necesidad de que los líderes de la industria establezcan estándares éticos y tomen medidas como realizar evaluaciones de sesgo antes del despliegue y evitar ciertos casos de uso.

Tamkin cree que los servicios externos de auditoría de IA deben crecer junto con las empresas que se basan en IA porque las evaluaciones internas tienden a quedarse cortas. Él cree que los métodos participativos de evaluación que incluyen a miembros de la comunidad y otras partes interesadas tienen un gran potencial para aumentar la participación democrática en la creación de modelos de IA.

Merve Hickock, quien es directora de investigación en un centro de políticas y ética de IA en la Universidad de Michigan, dice que intentar que las empresas dejen de lado o eliminen la exageración de la IA, se autorregulan y adoptan principios éticos no es suficiente. Proteger los derechos humanos significa dejar atrás las conversaciones sobre lo que es ético y pasar a conversaciones sobre lo que es legal, dice.

Hickok y Hanna de DAIR están viendo cómo la Unión Europea finaliza su Ley de IA este año para ver cómo trata los modelos que generan texto e imágenes. Hickok dijo que está especialmente interesada en ver cómo los legisladores europeos tratan la responsabilidad por daños que involucran modelos creados por compañías como Google, Microsoft y OpenAI.

“Algunas cosas deben ser obligatorias porque hemos visto una y otra vez que, si no son obligatorias, estas empresas continúan rompiendo cosas y continúan presionando para obtener ganancias sobre los derechos y ganancias sobre las comunidades”, dice Hicock.

Si bien la política se resuelve en Bruselas, hay mucho en juego. Un día después del error de demostración de Bard, una caída en el precio de las acciones de Alphabet recortó alrededor de $ 100 mil millones en capitalización de mercado. “Es la primera vez que veo esta destrucción de riqueza debido a un gran error del modelo de lenguaje en esa escala”, dice Hanna. Sin embargo, no es optimista de que esto convenza a la compañía de reducir su prisa por lanzar. “Supongo que en realidad no va a ser una advertencia”.



Source link-46