Open AI, Meta, Google: ¿Quién controla la inteligencia artificial? ¿Y cuándo nos controlará?


El caos que rodea a la empresa de inteligencia artificial Open AI muestra que incluso los desarrolladores más inteligentes no están de acuerdo sobre cuán peligrosa es realmente la tecnología y cómo los humanos pueden mantener la ventaja en el trato con las máquinas a largo plazo.

Le.blue/Financial Times Ltd 13 de abril de 2023

¿Depende realmente el destino de la humanidad de quién ocupa el puesto de director de una empresa? Esta semana lo habrías pensado. El mundo entero estaba viendo el drama en Open AI, la empresa de inteligencia artificial cuyo chatbot Chat-GPT ha estado asombrando a la humanidad durante un año.

El viernes 17 de noviembre, Open AI, la empresa detrás del chatbot Chat-GPT, anunció de forma completamente inesperada el despido de su director ejecutivo, Sam Altman. Lo que siguió fue un caos espectacular: primero se dijo que Altman se quedaría con el principal inversor Microsoft, luego más de 700 de los 770 empleados de Open AI exigieron su regreso y la dimisión de la junta directiva que había despedido a Altman.

Finalmente se supo el miércoles.que Altman había sido reinstalado como director ejecutivo y que la junta directiva debía ser reemplazada. Las turbulencias fueron provocadas por una disputa sobre la dirección que se venía gestando en la empresa desde hacía mucho tiempo. Por un lado dice Sam Altman, que aboga por una comercialización más rápida y completa de la inteligencia artificial. Del otro lado están juntas administrativas como ésta. El científico jefe Ilya Sutskeverque advierten sobre los posibles peligros de la IA.

El objetivo original de Open AI era desarrollar una IA que beneficiara a toda la humanidad. Para ello, la empresa fue fundada en 2015 como organización sin ánimo de lucro por Altman, Sutskever y Elon Musk, entre otros. Pero desarrollar algoritmos potentes requiere una cantidad extremadamente grande de potencia informática y, por tanto, de dinero. Este dilema se refleja en la estructura corporativa de Open AI: una rama con fines de lucro, ahora valorada en 90 mil millones de dólares y en parte propiedad de Microsoft, está supervisada por una junta directiva sin fines de lucro que se supone debe garantizar que el desarrollo de la IA no se salga de control. .

Una organización sin fines de lucro controla las startups: la estructura de Open AI es inusual

Una organización sin fines de lucro controla las startups: la estructura de Open AI es inusual

Un nuevo algoritmo provocó incertidumbre

Al parecer, el comité estaba cada vez más preocupado de que esto pudiera suceder, como en películas como “Terminator” o “Ex Machina”. Esto es lo que informó la agencia de noticias Reuters. el jueves sobre una carta en la que se dice que los investigadores de Open AI advirtieron a la junta poco antes de que Altman fuera despedido sobre su último avance: Q*, o Q-Star. Este algoritmo debería poder resolver problemas matemáticos simples de forma independiente.

Eso suena trivial. Pero esto significaría que Q-Star está un paso más allá que el chatbot Chat-GPT, que trabaja con probabilidades estadísticas al crear textos. Hasta ahora, la IA ha fracasado en gran medida a la hora de resolver problemas matemáticos de forma independiente.

Los investigadores de Open AI ven a Q-Star como un paso central hacia la inteligencia artificial general (AGI) que puede pensar de forma independiente. Porque si una computadora puede resolver problemas matemáticos de forma independiente, eso significa que es capaz de aprender y comprender. Y eso significa que básicamente puede hacer de todo y hacerlo mejor que los humanos. Este sería un punto de inflexión sin precedentes en la historia de la humanidad.

¿Cómo ve la IA a los humanos?

Porque la posibilidad de que las computadoras puedan superar a los humanos conduce a una pregunta existencial: ¿cómo será la relación entre humanos y máquinas? Ilya Sutskever lo compara con la relación entre personas y animales: “Nos gustan los animales. Pero si queremos construir una nueva carretera, no les pedimos permiso a los animales».

El historiador y filósofo Yuval Noah Harari incluso advierte contra uno El momento de Oppenheimer en la investigación de la IA: Así como Robert Oppenheimer se dio cuenta del monstruo que había creado cuando vio la explosión de la bomba atómica, lo mismo podría sucederles a los desarrolladores que permiten la superinteligencia artificial, con una diferencia: «Las armas nucleares ni siquiera pueden fabricar armas nucleares más poderosas para producir. Pero una IA puede crear una IA aún más poderosa”, afirma Harari.

El miedo a que algún día las máquinas controlen a las personas es tan antiguo como los propios ordenadores. En las películas de ciencia ficción, este escenario suele representarse con máquinas que se parecen a las personas: tienen un cuerpo (aunque no sea de carne y hueso) y se sienten. emociones. Pero la inteligencia artificial demuestra que las computadoras no necesitan emociones para manipular a las personas. Es suficiente con que pretendan tener algo. A través del lenguaje y las imágenes, la IA puede construir relaciones íntimas con las personas y así influir en sus opiniones y visión del mundo.

Ya hay muchos ejemplos de esto: en conflictos como el de la Franja de Gaza o Ucrania, se utilizan imágenes manipuladas por IA para influir en la narrativa pública. Hay informes de Personas que se enamoraron de una IAy de desarrolladores que están convencidos de que que los chatbots tienen conciencia.

Si la IA eventualmente se vuelve más poderosa que los humanos, ¿cómo pueden los humanos mantener el control sobre ella? ¿Y quién decide sobre qué valores y principios actúa el algoritmo?

El drama abierto de la IA parece ofrecer una respuesta sencilla a esta pregunta: el dinero.

Prevalecen los intereses de lucro

Con el regreso de Sam Altman y el despido del consejo de administración, en la empresa prevalecieron los intereses de lucro. La influencia de Microsoft probablemente seguirá creciendo y se habla de que la empresa tendrá un puesto en la nueva junta directiva. Esto finalmente haría que la orientación sin fines de lucro de Open AI sea cosa del pasado.

El éxito de Chat-GPT también tiene la culpa de esto. Cuando Open AI lanzó el chatbot hace casi exactamente un año, los responsables quedaron completamente sorprendidos por el revuelo que generó. En unos pocos días, Chat-GPT tenía más de un millón de usuarios.

Así comenzó la carrera armamentista. Google hizo lo mismo con el chatbot Bard, Elon Musk, que dejó Open AI en 2018, lanzó su aplicación Grok y el competidor de Open AI, Anthropic, lanzó su chatbot Claude. En el primer semestre de este año, la inversión global total en nuevas empresas de IA fue de casi 500 mil millones de dólares.

Y quien sea más rápido y tenga mayor potencia informática prevalecerá y, en última instancia, controlará la superinteligencia, el instrumento más poderoso del mundo. ¿Significa esto que el futuro de la IA está en manos de unos pocos empresarios ricos?

Cómo debería ser el acceso abierto es controvertido

La IA abierta hace mucho para contrarrestar esta impresión. En colaboración con Google y Anthropic, la empresa publicó hace unos meses un papel con varias propuestas para la regulación de la IA, incluidos estándares de seguridad obligatorios, transparencia hacia los reguladores y un sistema de licencias para los desarrolladores de IA. La última propuesta en particular es controvertida, ya que daría lugar a una concentración aún mayor en la industria.

La cuestión de si el acceso a una IA que sea lo más abierta o lo más limitada posible es más seguro es otra cuestión que divide a la industria. Open AI ahora ha puesto partes del servicio Chat GPT detrás de un muro de pago, supuestamente para evitar el uso indebido. Jeremy Howard, cofundador del grupo de investigación sin fines de lucro fast.ai, escribe en un artículo que el acceso limitado a los sistemas de IA centraliza el poder hasta tal punto que corre el riesgo de «destruir los logros del Siglo de las Luces».

Una IA abrumadora en manos de unos pocos empresarios conduciría en realidad a una incapacitación parcial de los humanos. Entonces, ¿qué pasaría si no unas pocas empresas tuvieran el control de la IA, sino todas las personas?

¿Qué pasaría si todos pudieran opinar?

La empresa Anthropic lo tiene. con un experimento intentó. Hizo que un panel de 1.000 personas «normales» formulara directrices según las cuales debería actuar una IA. El resultado fue una lista de 75 principios, a partir de los cuales se entrenó una versión del chatbot Anthropic Claude. El resultado: el chatbot era menos parcial que la versión estándar y estaba más abierto a las necesidades de las personas con discapacidad, por ejemplo. Porque entrenamos máquinas con datos reales y así transmitimos nuestros prejuicios y sesgos. Esto se puede contrarrestar con regulaciones adecuadas.

Por lo tanto, Anthropic cree que el público debería tener voz y voto en cómo se maneja la IA. De lo contrario, se corre el riesgo de dejar la selección de los principios éticos que obedece una IA superinteligente en manos de un pequeño puñado de personas influyentes.

Pero, ¿qué tan cerca está realmente esa IA? Los investigadores no están de acuerdo. El metajefe Marc Zuckerberg considera irresponsable la difusión de escenarios apocalípticos. Yann LeCun, ganador del Premio Turing e investigador jefe de IA en Meta, describe estos temores como “espeluznantemente estúpidos”.

Si bien Microsoft y Open AI están seguros de que pronto podrán desarrollar una IA que sea realmente mejor que los humanos en todo, otros investigadores dudan de tal proyecto. La fluidez lingüística de un chatbot no demuestra que pueda entender y pensar tan bien como un humano, según una crítica frecuente. Aún no está claro cuán grande es realmente el potencial de los algoritmos.

Lo que está claro es que la carrera para desarrollar una posible superinteligencia está en marcha, y los miles de millones de dólares que está recibiendo sugieren que apenas ha comenzado.

Un artículo del «NZZ el domingo»



Source link-58