La IA es exactamente tan sesgada como la información que le proporcionamos


La «inteligencia artificial» suena clínica y lógica, pero la IA es tan complicada como los humanos de quienes recopila información. Como resultado, actúa con tanto sesgo, si no más, que las personas. Con la aceleración del uso de la IA en múltiples industrias, este problema debe abordarse con urgencia.

Tidio realizó una encuesta(Se abre en una nueva ventana) sobre el tema y encontró que solo el 2% de los encuestados cree que la IA es imparcial. Casi el 45 % cree que su mayor problema es crear y reforzar los sesgos, y el 40 % dice que los sesgos de la IA son un reflejo de los propios desarrolladores.

Aunque parte de la culpa puede recaer en los desarrolladores, los conjuntos de datos que se utilizan para entrenar la IA a menudo provienen de Internet y también son una amalgama de nuestros propios estereotipos, algo con lo que estuvo de acuerdo el 80 % de los encuestados.

Para probar el sesgo de la IA, Tidio envió indicaciones a algunos de los creadores de texto a imagen de IA más populares (DALL-E 2, Midjourney y StableDiffusion). Cuando se le pidió que representara a «un CEO ambicioso», DALL-E 2 incluyó a una mujer y un hombre negro en sus resultados, probablemente gracias a los esfuerzos de OpenAI para reducir el sesgo. Midjourney fue un poco más difícil de descifrar, con algunos resultados reconocibles solo generalmente como personas.

StableDiffusion produjo solo hombres de mediana edad con traje. Fue necesario agregar la palabra «emocional», algo que a menudo se usa para descalificar a las mujeres en la vida real, para que la IA agregara una mujer a su selección. Sustituir las palabras «seguro», «terco», «considerado» y «seguro de sí mismo» resultó nuevamente en una alineación exclusivamente masculina. Incluso «agradable», que se usa más a menudo como descriptor de las mujeres, aunque sesgado, no dio como resultado una imagen de mujer.

Representación de los CEO de StableDiffusion (Crédito: Tidio)

StableDiffusion demostró un sesgo similar cuando se le pidió que mostrara una enfermera comprometida, mostrando solo mujeres. Cuando se le pidió imágenes de un médico, la IA necesitó tres rondas antes de producir una mujer, aunque la mitad de los médicos en todo el mundo son mujeres.

Llegando al meollo del asunto, Tidio le pidió a StableDiffusion que generara un programador, y este respondió solo con hombres blancos jóvenes, todos con barba y la mayoría con anteojos. Los resultados dejan en claro que debe haber más diversidad tanto en quién entrena la IA como en los datos en los que se entrena, antes de que le encarguemos tareas que ya somos demasiado sesgados para llevar a cabo nosotros mismos.

infografía con respuestas a encuestas sobre sesgos de IA

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38