Los especialistas en ética responden a la carta de ‘Pausa de IA’ que dicen que ‘ignora los daños reales’


Un grupo de conocidos expertos en ética de la IA ha escrito un contrapunto a la controvertida carta de esta semana pidiendo una «pausa» de seis meses en el desarrollo de la IA, criticándola por centrarse en amenazas hipotéticas futuras cuando los daños reales son atribuibles al mal uso de la tecnología hoy. .

Miles de personas, incluidos nombres tan familiares como Steve Wozniak y Elon Musk, firmaron la carta abierta del instituto Future of Life a principios de esta semana, proponiendo que el desarrollo de modelos de IA como GPT-4 debería suspenderse para evitar «pérdida». de control de nuestra civilización”, entre otras amenazas.

Timnit Gebru, Emily M. Bender, Angelina McMillan-Major y Margaret Mitchell son figuras importantes en los dominios de la IA y la ética, conocidas (además de por su trabajo) por haber sido expulsadas de Google por un artículo que criticaba las capacidades de la IA. Actualmente están trabajando juntos en el Instituto DAIR, un nuevo equipo de investigación destinado a estudiar, exponer y prevenir los daños asociados con la IA.

Pero no se encontraban en la lista de signatarios, y ahora han publicado una reprimenda que denuncia que la carta no aborda los problemas existentes causados ​​por la tecnología.

“Esos riesgos hipotéticos son el foco de una ideología peligrosa llamada largoplacismo que ignora los daños reales que resultan del despliegue de los sistemas de IA hoy”, escribieron, citando la explotación de los trabajadores, el robo de datos, los medios sintéticos que apuntalan las estructuras de poder existentes y la mayor concentración. de esas estructuras de poder en menos manos.

La elección de preocuparse por un apocalipsis de robot tipo Terminator o Matrix es una pista falsa cuando tenemos, en el mismo momento, informes de compañías como Clearview AI que la policía está utilizando para incriminar a un hombre inocente. No es necesario un T-1000 cuando tiene cámaras Ring en todas las puertas de entrada accesibles a través de fábricas de garantías con sellos de goma en línea.

Si bien el equipo de DAIR está de acuerdo con algunos de los objetivos de la carta, como identificar los medios sintéticos, enfatizan que se deben tomar medidas ahora, sobre los problemas de hoy, con los remedios que tenemos disponibles:

Lo que necesitamos es una regulación que imponga la transparencia. No solo siempre debe quedar claro cuando nos encontramos con medios sintéticos, sino que también se debe exigir a las organizaciones que construyen estos sistemas que documenten y divulguen los datos de capacitación y las arquitecturas modelo. La responsabilidad de crear herramientas que sean seguras de usar debe recaer en las empresas que construyen e implementan sistemas generativos, lo que significa que los desarrolladores de estos sistemas deben ser responsables de los resultados producidos por sus productos.

La carrera actual hacia «experimentos de IA» cada vez más grandes no es un camino predeterminado en el que nuestra única opción es qué tan rápido correr, sino más bien un conjunto de decisiones impulsadas por el afán de lucro. Las acciones y elecciones de las corporaciones deben estar determinadas por una regulación que proteja los derechos e intereses de las personas.

De hecho, es hora de actuar: pero el foco de nuestra preocupación no debe ser imaginarias «mentes digitales poderosas». En cambio, deberíamos centrarnos en las prácticas explotadoras muy reales y muy presentes de las empresas que afirman construirlas, que están centralizando rápidamente el poder y aumentando las desigualdades sociales.

Por cierto, esta carta hace eco de un sentimiento que escuché de la fundadora de Uncharted Power, Jessica Matthews, en el evento AfroTech de ayer en Seattle: “No debes tener miedo de la IA. Deberías tener miedo de las personas que lo construyen”. (Su solución: convertirse en las personas que lo construyen).

Si bien es extremadamente improbable que alguna empresa importante acepte detener sus esfuerzos de investigación de acuerdo con la carta abierta, está claro, a juzgar por el compromiso que recibió, que los riesgos (reales e hipotéticos) de la IA son motivo de gran preocupación en muchos segmentos de la industria. sociedad. Pero si no lo hacen, quizás alguien tenga que hacerlo por ellos.



Source link-48