Responder a las preguntas más importantes de la IA requiere un enfoque interdisciplinario


Cuando Elon Musk anunció el equipo detrás de su nueva empresa de inteligencia artificial xAI el mes pasado, cuya misión supuestamente es «comprender la verdadera naturaleza del universo», subrayó la importancia de responder a las preocupaciones existenciales sobre las promesas y los peligros de la IA.

Si la empresa recién formada realmente puede alinear su comportamiento para reducir los riesgos potenciales de la tecnología, o si su único objetivo es obtener una ventaja sobre OpenAI, su formación plantea preguntas importantes sobre cómo las empresas deberían responder realmente a las preocupaciones sobre la IA. Específicamente:

  1. ¿Quién internamente, especialmente en las empresas modelo fundacionales más grandes, se hace realmente preguntas sobre los impactos a corto y largo plazo de la tecnología que están construyendo?
  2. ¿Están abordando los problemas con una perspectiva y experiencia adecuadas?
  3. ¿Están equilibrando adecuadamente las consideraciones tecnológicas con las cuestiones sociales, morales y epistemológicas?

En la universidad, me especialicé en informática y filosofía, lo que parecía una combinación incongruente en ese momento. En un salón de clases, estaba rodeado de personas que pensaban profundamente sobre ética (“¿Qué está bien y qué está mal?”), ontología (“¿Qué hay realmente?”) y epistemología (“¿Qué sabemos realmente?”). En otro, estaba rodeado de gente que hacía algoritmos, códigos y matemáticas.

Veinte años después, en un golpe de suerte con respecto a la previsión, la combinación no es tan inarmónica en el contexto de cómo las empresas deben pensar en la IA. Lo que está en juego en el impacto de la IA es existencial, y las empresas deben asumir un compromiso auténtico digno de esos riesgos.

La IA ética requiere una comprensión profunda de lo que hay, lo que queremos, lo que creemos saber y cómo se desarrolla la inteligencia.

Esto significa dotar a sus equipos de liderazgo de partes interesadas que estén adecuadamente equipadas para analizar las consecuencias de la tecnología que están construyendo, lo que va más allá de la experiencia natural de los ingenieros que escriben códigos y refuerzan las API.

La IA no es un desafío exclusivamente informático, de neurociencia o de optimización. Es un desafío humano. Para abordarlo, debemos adoptar una versión duradera de una “reunión de mentes sobre IA”, equivalente en alcance a la reunión interdisciplinaria de Oppenheimer en el desierto de Nuevo México (donde yo nací) a principios de los años cuarenta.

La colisión del deseo humano con las consecuencias no deseadas de la IA da como resultado lo que los investigadores denominan el «problema de alineación», descrito de manera experta en el libro de Brian Christian «The Alignment Problem». Esencialmente, las máquinas tienen una manera de malinterpretar nuestras instrucciones más completas y nosotros, como sus supuestos amos, tenemos un pobre historial de lograr que comprendan completamente lo que creemos que queremos que hagan.

El resultado neto: los algoritmos pueden promover el sesgo y la desinformación y, por lo tanto, corroer el tejido de nuestra sociedad. En un escenario más distópico a largo plazo, pueden tomar el “giro traicionero” y los algoritmos a los que hemos cedido demasiado control sobre el funcionamiento de nuestra civilización nos superen a todos.

A diferencia del desafío de Oppenheimer, que era científico, la IA ética requiere una comprensión profunda de lo que existe, lo que queremos, lo que creemos saber y cómo se desarrolla la inteligencia. Se trata de una tarea de naturaleza ciertamente analítica, aunque no estrictamente científica. Requiere un enfoque integrador arraigado en el pensamiento crítico tanto de las humanidades como de las ciencias.

Pensadores de diferentes campos necesitan trabajar en estrecha colaboración, ahora más que nunca. El equipo ideal para una empresa que busca hacer esto realmente bien sería algo así como:

  • Jefe de IA y ética de datos: Esta persona abordaría problemas a corto y largo plazo con datos e IA, incluidos, entre otros, la articulación y adopción de principios éticos de datos, el desarrollo de arquitecturas de referencia para el uso ético de datos, los derechos de los ciudadanos con respecto a cómo se consumen sus datos y utilizado por la IA, y protocolos para moldear y controlar adecuadamente el comportamiento de la IA. Este debería estar separado del director de tecnología, cuya función es en gran medida ejecutar un plan tecnológico en lugar de abordar sus repercusiones. Es un puesto de alto nivel en el personal del CEO que cierra la brecha de comunicación entre los tomadores de decisiones internos y los reguladores. No se puede separar a un especialista en ética de datos de un jefe de ética en IA: los datos son la condición previa y el combustible para la IA; La propia IA genera nuevos datos.
  • Arquitecto filósofo jefe: Este rol abordaría las preocupaciones existenciales a largo plazo con un enfoque principal en el «Problema de alineación»: cómo definir salvaguardias, políticas, puertas traseras y interruptores de apagado para que la IA se alinee en la mayor medida posible con las necesidades y objetivos humanos. .
  • Neurocientífico jefe: Esta persona abordaría cuestiones críticas sobre la sensibilidad y cómo se desarrolla la inteligencia dentro de los modelos de IA, qué modelos de cognición humana son más relevantes y útiles para el desarrollo de la IA y qué puede enseñarnos la IA sobre la cognición humana.

Fundamentalmente, para convertir el resultado del equipo de ensueño en tecnología responsable y efectiva, necesitamos tecnólogos que puedan traducir conceptos abstractos y preguntas planteadas por “Los Tres” en software que funcione. Como ocurre con todos los grupos de tecnología que trabajan, esto depende del líder/diseñador del producto que ve el panorama completo.

Una nueva generación de líderes de productos inventivos en la “Era de la IA” debe moverse cómodamente a través de nuevas capas de la pila tecnológica que abarcan la infraestructura modelo para la IA, así como nuevos servicios para cosas como el ajuste y el desarrollo de modelos patentados. Deben ser lo suficientemente inventivos para imaginar y diseñar flujos de trabajo «Human in the Loop» para implementar salvaguardias, puertas traseras y interruptores de apagado según lo prescrito por el arquitecto filósofo jefe. Necesitan tener la capacidad de un ingeniero renacentista para traducir las políticas y protocolos del jefe de inteligencia artificial y de ética de datos en sistemas que funcionen. Necesitan apreciar los esfuerzos del neurocientífico jefe por moverse entre máquinas y mentes y discernir adecuadamente los hallazgos con el potencial de dar lugar a una IA más inteligente y responsable.

Miremos a OpenAI como uno de los primeros ejemplos de una empresa modelo fundamental, extremadamente influyente y bien desarrollada que lucha con este desafío de personal: tienen un científico jefe (que también es su cofundador), un jefe de política global y un director general. consejo.

Sin embargo, sin los tres puestos que describí anteriormente en puestos de liderazgo ejecutivo, las preguntas más importantes en torno a las repercusiones de su tecnología siguen sin resolverse. Si a Sam Altman le preocupa abordar el tratamiento y la coordinación de la superinteligencia de una manera amplia y reflexiva, construir una alineación holística es un buen punto de partida.

Tenemos que construir un futuro más responsable en el que las empresas sean administradores confiables de los datos de las personas y en el que la innovación impulsada por la IA sea sinónimo de bien. En el pasado, los equipos legales llevaban el agua en temas como la privacidad, pero los más brillantes reconocen que no pueden resolver por sí solos los problemas del uso ético de datos en la era de la IA.

Llevar perspectivas diferentes y de mentalidad amplia a la mesa donde se toman las decisiones es la única manera de lograr datos éticos e inteligencia artificial al servicio del florecimiento humano, manteniendo las máquinas en su lugar.



Source link-48