AI necesita desesperadamente supervisión global


Cada vez que usted publique una foto, responda en las redes sociales, cree un sitio web o posiblemente incluso envíe un correo electrónico, sus datos se extraen, almacenan y utilizan para entrenar la tecnología de IA generativa que puede crear texto, audio, video e imágenes con solo unas pocas palabras . Esto tiene consecuencias reales: los investigadores de OpenAI que estudian el impacto de sus modelos de lenguaje en el mercado laboral estimaron que aproximadamente el 80 por ciento de la fuerza laboral de los EE. alrededor del 19 por ciento de los trabajadores pueden ver al menos la mitad de sus tareas afectadas. También estamos viendo un cambio inmediato en el mercado laboral con la generación de imágenes. En otras palabras, los datos que creó pueden dejarlo sin trabajo.

Cuando una empresa construye su tecnología sobre un recurso público, Internet, es sensato decir que esa tecnología debe estar disponible y abierta para todos. Pero los críticos han señalado que GPT-4 carecía de información o especificaciones claras que permitieran a cualquier persona ajena a la organización replicar, probar o verificar cualquier aspecto del modelo. Algunas de estas empresas han recibido grandes sumas de fondos de otras corporaciones importantes para crear productos comerciales. Para algunos en la comunidad de IA, esta es una señal peligrosa de que estas empresas van a buscar ganancias por encima del beneficio público.

Es poco probable que la transparencia del código por sí sola garantice que estos modelos generativos de IA sirvan al bien público. Hay pocos beneficios inmediatos concebibles para un periodista, analista de políticas o contador (todas profesiones de «alta exposición» según el estudio de OpenAI) si los datos que sustentan un LLM están disponibles. Tenemos cada vez más leyes, como la Ley de Servicios Digitales, que requerirían que algunas de estas empresas abran su código y datos para la revisión de un auditor experto. Y el código fuente abierto a veces puede permitir a los actores malintencionados, lo que permite a los piratas informáticos subvertir las precauciones de seguridad que las empresas están implementando. La transparencia es un objetivo loable, pero eso por sí solo no garantizará que la IA generativa se utilice para mejorar la sociedad.

Para crear realmente un beneficio público, necesitamos mecanismos de rendición de cuentas. El mundo necesita un organismo de gobernanza global de IA generativa para resolver estas perturbaciones sociales, económicas y políticas más allá de lo que cualquier gobierno individual es capaz de hacer, lo que cualquier grupo académico o de la sociedad civil puede implementar, o cualquier corporación está dispuesta o es capaz de hacer. Ya existe un precedente de cooperación global por parte de empresas y países para hacerse responsables de los resultados tecnológicos. Tenemos ejemplos de organizaciones y grupos de expertos independientes y bien financiados que pueden tomar decisiones en nombre del bien público. Una entidad como esta tiene la tarea de pensar en los beneficios para la humanidad. Construyamos sobre estas ideas para abordar los problemas fundamentales que la IA generativa ya está surgiendo.

En la era de la proliferación nuclear después de la Segunda Guerra Mundial, por ejemplo, existía un temor creíble y significativo de que las tecnologías nucleares se descontrolaran. La creencia generalizada de que la sociedad tenía que actuar colectivamente para evitar un desastre global se hace eco de muchas de las discusiones actuales en torno a los modelos generativos de IA. En respuesta, países de todo el mundo, encabezados por EE. UU. y bajo la guía de las Naciones Unidas, se reunieron para formar la Agencia Internacional de Energía Atómica (OIEA), un organismo independiente libre de afiliaciones gubernamentales y corporativas que brindaría soluciones a los problemas más lejanos. llegando a las ramificaciones y capacidades aparentemente infinitas de las tecnologías nucleares. Opera en tres áreas principales: energía nuclear, seguridad tecnológica y física nuclear y salvaguardias. Por ejemplo, después del desastre de Fukushima en 2011, proporcionó recursos críticos, educación, pruebas e informes de impacto, y ayudó a garantizar la seguridad nuclear continua. Sin embargo, la agencia es limitada: depende de los estados miembros para cumplir voluntariamente con sus normas y directrices, y de su cooperación y asistencia para llevar a cabo su misión.

En tecnología, la Junta de Supervisión de Facebook es un intento práctico de equilibrar la transparencia con la responsabilidad. Los miembros de la Junta son un grupo global interdisciplinario y sus juicios, como revocar una decisión tomada por Facebook de eliminar una publicación que mostraba acoso sexual en la India, son vinculantes. Este modelo tampoco es perfecto; hay acusaciones de captura corporativa, ya que la junta está financiada únicamente por Meta, solo puede escuchar casos a los que se refiere el propio Facebook y se limita a eliminar contenido, en lugar de abordar problemas más sistémicos como algoritmos o políticas de moderación.



Source link-46