La justicia procesal puede abordar el problema de confianza/legitimidad de la IA generativa


La tan publicitada llegada de la IA generativa ha reavivado un debate familiar sobre la confianza y la seguridad: ¿Se puede confiar en los ejecutivos de tecnología para mantener los mejores intereses de la sociedad en el corazón?

Debido a que sus datos de entrenamiento son creados por humanos, la IA es inherentemente propensa al sesgo y, por lo tanto, está sujeta a nuestras propias formas imperfectas y emocionales de ver el mundo. Conocemos muy bien los riesgos, desde reforzar la discriminación y las desigualdades raciales hasta promover la polarización.

El CEO de OpenAI, Sam Altman, ha pidió nuestra “paciencia y buena fe” mientras trabajan para «hacerlo bien».

Durante décadas, hemos depositado pacientemente nuestra confianza en los ejecutivos de tecnología bajo nuestro propio riesgo: ellos lo crearon, así que les creímos cuando dijeron que podían solucionarlo. La confianza en las empresas de tecnología sigue cayendo en picado y, según el Barómetro de confianza de Edelman de 2023, el 65 % de todo el mundo se preocupa por que la tecnología haga imposible saber si lo que la gente ve o escucha es real.

Es hora de que Silicon Valley adopte un enfoque diferente para ganarse nuestra confianza, uno que haya demostrado su eficacia en el sistema legal de la nación.

Un enfoque de justicia procesal para la confianza y la legitimidad

Basada en la psicología social, la justicia procesal se basa en investigaciones que muestran que las personas creen que las instituciones y los actores son más confiables y legítimos cuando se les escucha y experimentan una toma de decisiones neutral, imparcial y transparente.

Los cuatro componentes clave de la justicia procesal son:

  • Neutralidad: Las decisiones son imparciales y guiadas por un razonamiento transparente.
  • Respeto: Todos son tratados con respeto y dignidad.
  • Voz: Todos tienen la oportunidad de contar su versión de la historia.
  • Confiabilidad: los tomadores de decisiones transmiten motivos confiables sobre aquellos afectados por sus decisiones.

Usando este marco, la policía ha mejorado la confianza y la cooperación en sus comunidades y algunas compañías de redes sociales están comenzando a usar estas ideas para dar forma a los enfoques de gobernanza y moderación.

Aquí hay algunas ideas sobre cómo las empresas de IA pueden adaptar este marco para generar confianza y legitimidad.

Cree el equipo correcto para abordar las preguntas correctas

Como argumenta la profesora de UCLA Safiya Noble, las preguntas que rodean el sesgo algorítmico no pueden ser resueltas por los ingenieros solos, porque son problemas sociales sistémicos que requieren perspectivas humanísticas, fuera de cualquier empresa, para garantizar la conversación social, el consenso y, en última instancia, la regulación, tanto auto y gubernamental.

En «System Error: Where Big Tech Went Wrong and How We Can Reboot», tres profesores de Stanford analizan críticamente las deficiencias de la formación en informática y la cultura de la ingeniería por su obsesión con la optimización, a menudo dejando de lado los valores fundamentales de una sociedad democrática.

En una publicación de blog, Open AI dice que valora el aporte de la sociedad: “Debido a que la ventaja de AGI es tan grande, no creemos que sea posible o deseable que la sociedad detenga su desarrollo para siempre; en cambio, la sociedad y los desarrolladores de AGI tienen que descubrir cómo hacerlo bien”.

Sin embargo, la página de contratación de la empresa y el fundador Los tuits de Sam Altman muestran que la compañía está contratando a una gran cantidad de ingenieros de aprendizaje automático y científicos informáticos porque «ChatGPT tiene una hoja de ruta ambiciosa y está obstaculizada por la ingeniería».

¿Están estos informáticos e ingenieros equipados para tomar decisiones que, como ha dicho OpenAI, “requerirán mucha más cautela de la que la sociedad suele aplicar a las nuevas tecnologías”?

Las empresas de tecnología deben contratar equipos multidisciplinarios que incluyan científicos sociales que comprendan los impactos humanos y sociales de la tecnología. Con una variedad de perspectivas sobre cómo entrenar aplicaciones de IA e implementar parámetros de seguridad, las empresas pueden articular un razonamiento transparente para sus decisiones. Esto puede, a su vez, impulsar la percepción del público de la tecnología como neutral y confiable.

Incluir perspectivas externas

Otro elemento de la justicia procesal es dar a las personas la oportunidad de participar en un proceso de toma de decisiones. En una publicación de blog reciente sobre cómo OpenAI está abordando el sesgo, la compañía dijo que busca «información externa sobre nuestra tecnología» que apunta a un ejercicio de equipo rojo reciente, un proceso de evaluación de riesgos a través de un enfoque contradictorio.

Si bien la formación de equipos rojos es un proceso importante para evaluar el riesgo, debe incluir información externa. En el ejercicio de equipo rojo de OpenAI, 82 de los 103 participantes eran empleados. De los 23 participantes restantes, la mayoría eran académicos de informática de universidades predominantemente occidentales. Para obtener diversos puntos de vista, las empresas deben mirar más allá de sus propios empleados, disciplinas y geografía.

También pueden permitir una retroalimentación más directa en los productos de IA al proporcionar a los usuarios mayores controles sobre el rendimiento de la IA. También podrían considerar brindar oportunidades para comentarios públicos sobre nuevas políticas o cambios en los productos.

Garantizar la transparencia

Las empresas deben garantizar que todas las reglas y los procesos de seguridad relacionados sean transparentes y transmitan motivos confiables sobre cómo se tomaron las decisiones. Por ejemplo, es importante proporcionar al público información sobre cómo se entrenan las aplicaciones, de dónde se extraen los datos, qué papel tienen los humanos en el proceso de entrenamiento y qué capas de seguridad existen para minimizar el mal uso.

Permitir que los investigadores auditen y comprendan los modelos de IA es clave para generar confianza.

Altman acertó en una entrevista reciente de ABC News cuando dijo: «Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo».

A través de un enfoque de justicia procesal, en lugar de la opacidad y la fe ciega del enfoque de los predecesores tecnológicos, las empresas que construyen plataformas de IA pueden involucrar a la sociedad en el proceso y ganar, no exigir, confianza y legitimidad.





Source link-48