Los especialistas en ética de la IA critican la carta de ‘pausa de la IA’ por ignorar los daños actuales


Conocidos especialistas en ética de la IA están criticando una carta abierta que pide una «pausa» de seis meses en el desarrollo de la inteligencia artificial, diciendo(Se abre en una nueva ventana) que solo se enfoca en amenazas futuras hipotéticas en lugar de daños actuales del mundo real.

La carta abierta, firmada por Steve Wozniak y Elon Musk, entre otros, citaba las consecuencias disruptivas que la IA podría desencadenar en la sociedad y pedía a los laboratorios de IA que detuvieran de inmediato el entrenamiento de sistemas más potentes que GPT-4, el último sistema de inteligencia artificial de Open AI. .

En su refutación(Se abre en una nueva ventana), los especialistas en ética argumentan que «los riesgos hipotéticos son el foco de una ideología peligrosa llamada largoplacismo que ignora los daños reales que resultan del despliegue de los sistemas de IA en la actualidad». Está firmado por Timnit Gebru, Emily M.Bender, Angelina McMIllan-Major y Margaret Mitchell del Instituto DAIR, una nueva empresa de investigación dedicada a estudiar y prevenir los peligros asociados con la IA.

Esos «daños reales» incluyen la explotación de los trabajadores, el robo de datos y los medios falsos que respaldan las estructuras de poder actuales y su mayor concentración en menos manos, dice el grupo.

La reprimenda también señala cómo la policía usa empresas de reconocimiento facial y bases de datos como Clearview AI para acusar a personas inocentes.(Se abre en una nueva ventana).

«La carrera actual hacia ‘experimentos de IA’ cada vez más grandes no es un camino predeterminado en el que nuestra única opción es cuán rápido correr, sino más bien un conjunto de decisiones impulsadas por el afán de lucro», agrega la carta. «Las acciones y elecciones de las corporaciones debe ser moldeado por una regulación que proteja los derechos e intereses de las personas”.

Recomendado por Nuestros Editores

Continúa: “De hecho, es hora de actuar: pero el foco de nuestra preocupación no debe ser ‘mentes digitales poderosas’ imaginarias. En cambio, deberíamos centrarnos en las prácticas de explotación muy reales y muy presentes de las empresas que afirman construirlas, que están centralizando rápidamente el poder y aumentando las desigualdades sociales”.

Gebru, uno de los firmantes de la contracarta, estaba entre los líderes del equipo de ética en IA de Google que fue despedido en 2020, según se informa.(Se abre en una nueva ventana) después de expresar su preocupación por la marginación de las mujeres y las voces de los negros en la tecnología.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38