Meta realizó un experimento gigante en gobernanza. Ahora se está convirtiendo en IA


A fines del mes pasado, Meta anunció silenciosamente los resultados de un proceso “democrático” deliberativo ambicioso, casi global, para informar las decisiones sobre la responsabilidad de la empresa por el metaverso que está creando. Este no fue un ejercicio corporativo ordinario. Involucró a más de 6000 personas que fueron elegidas para ser representativas demográficamente en 32 países y 19 idiomas. Los participantes pasaron muchas horas conversando en pequeñas sesiones grupales en línea y escucharon a expertos que no eran Meta sobre los temas en discusión. El ochenta y dos por ciento de los participantes dijeron que recomendarían este formato como una forma para que la empresa tome decisiones en el futuro.

Meta ahora se ha comprometido públicamente a ejecutar un proceso similar para la IA generativa, un movimiento que se alinea con el enorme interés en la innovación democrática para gobernar o guiar los sistemas de IA. Al hacerlo, Meta se une a Google, DeepMind, OpenAI, Anthropic y otras organizaciones que están comenzando a explorar enfoques basados ​​en el tipo de democracia deliberativa que yo y otros hemos estado defendiendo. (Divulgación: estoy en el comité asesor de solicitudes para los aportes democráticos de OpenAI a la subvención de AI). Habiendo visto el interior del proceso de Meta, estoy entusiasmado con esto como una valiosa prueba de concepto para la gobernanza democrática transnacional. Pero para que tal proceso sea verdaderamente democrático, los participantes necesitarían mayor poder y agencia, y el proceso mismo tendría que ser más público y transparente.

Conocí por primera vez a varios de los empleados responsables de establecer los foros comunitarios de Meta (como se llamó a estos procesos) en la primavera de 2019 durante una consulta externa más tradicional con la empresa para determinar su política sobre “medios manipulados”. Había estado escribiendo y hablando sobre los riesgos potenciales de lo que ahora se llama IA generativa y me pidieron (junto con otros expertos) que proporcionara información sobre el tipo de políticas que Meta debería desarrollar para abordar problemas como la desinformación que podría verse exacerbada por la tecnología.

Más o menos al mismo tiempo, aprendí por primera vez sobre las deliberaciones representativas, un enfoque de la toma de decisiones democrática que ha despegado como un reguero de pólvora, con asambleas de ciudadanos cada vez más destacadas y encuestas deliberativas en todo el mundo. La idea básica es que los gobiernos devuelvan las cuestiones políticas difíciles al público para que las decida. En lugar de un referéndum o elecciones, se selecciona un microcosmos representativo del público mediante sorteo. Ese grupo se reúne durante días o incluso semanas (con compensación) para aprender de los expertos, las partes interesadas y entre sí antes de llegar a un conjunto final de recomendaciones.

Las deliberaciones representativas proporcionaron una posible solución a un dilema con el que había estado luchando durante mucho tiempo: cómo tomar decisiones sobre tecnologías que afectan a las personas a través de las fronteras nacionales. Comencé a abogar por que las empresas pusieran a prueba estos procesos para ayudar a tomar decisiones sobre sus problemas más difíciles. Cuando Meta inició de forma independiente un piloto de este tipo, me convertí en un asesor informal del Laboratorio de Gobernanza de la empresa (que dirigía el proyecto) y luego en un observador integrado durante el diseño y la ejecución de su gigantesco proceso de Foro Comunitario de 32 países (no acepté compensación por parte de este tiempo).

Sobre todo, el foro de la comunidad fue emocionante porque demostró que ejecutar este tipo de proceso es realmente posible, a pesar de los inmensos obstáculos logísticos. Los socios de Meta en Stanford dirigieron en gran medida los procedimientos, y no vi evidencia de que los empleados de Meta intentaran forzar un resultado. La compañía también cumplió con su compromiso de que esos socios de Stanford informaran directamente sobre los resultados, sin importar cuáles fueran. Además, estaba claro que las personas en al menos algunas partes de la empresa estaban evaluando seriamente la mejor manera de implementar los resultados potenciales del foro. Los resultados terminaron incluyendo perspectivas sobre qué tipo de repercusiones serían apropiadas para los anfitriones de los espacios Metaverse con intimidación y acoso repetidos y qué tipo de sistemas de moderación y monitoreo deberían implementarse.



Source link-46