El cofundador de DeepMind describe un nuevo tipo de prueba de Turing


Con la exageración de la inteligencia artificial dejando a las empresas de capital de riesgo echando espuma por la boca, listas para comprar en cualquier empresa nueva que tenga una «A» y una «I» en su nombre, seguro que necesitamos una nueva forma de definir lo que constituye una IA. La prueba de Turing no logra definir la inteligencia real en el mundo actual de grandes modelos de lenguaje. Una figura destacada en el campo de la IA tiene una mejor idea que solo podría provenir del reino obsesionado con la riqueza de la gran tecnología: la mejor manera de saber si la IA es inteligente es si puede enriquecerse rápidamente.

Mustafa Suleyman, un comandante Desarrollador de IA que previamente cofundó DeepMind—ahora propiedad de Google—tiene un próximo libro en el que, según los informes, habla sobre cómo juzgar a un AI’La inteligencia de s se basa en su capacidad para acumular efectivo. De acuerdo a un Bloomberg informe en La ola que se avecina: tecnología, poder y el mayor dilema del siglo XXI, Suleyman argumenta que la investigación de IA debe centrarse en desarrollos a corto plazo, en lugar de sueños imposibles como una supuesta inteligencia artificial general o AGI. ¿Cuál es un buen ejemplo? Su «Prueba de Turing moderna» le daría a una IA $ 100,000, y luego los investigadores esperarían a que la IA ganara $ 1 millón en su inversión inicial. Mira, solo una verdadera inteligencia puede «hacer que la fila suba» y las personas que son buenas para hacer que la fila suba son claramente las personas más inteligentes.

El desarrollador de IA llamó a esta medida de comprensión de la inteligencia artificial «inteligencia con capacidad artificial» y, como cualquier buen capitalista, la IA debe ser juzgada por sus logros financieros en lugar de su capacidad para la interacción a nivel humano. Entonces, ¿cómo haría la IA un banco? Esencialmente, tendría que completar su proyecto de término promedio de grado en negocios. La IA investigaría oportunidades comerciales de comercio electrónico, crearía una idea para un producto y luego descubriría el proceso para fabricar y vender el servicio.

La propuesta suena más como una Hazte rico rápidamente basado en IA esquema encontraría en los extremos más sórdidos de los influyentes financieros de YouTube y TikTok. Sin duda, la IA es más capaz de diseñar productos que de tener verdadera imaginación, pero los sistemas modernos aún están lejos de darle a Suleyman una cuenta bancaria limpia. Hay varios agentes de IA flotando que tuvieron su tiempo en el centro de atención de la IA a principios de este año. Esencialmente, actúan como múltiples versiones de un chatbot que trabaja en conjunto para completar tareas específicas. Los usuarios incluso han creado agentes que pueden realizar tareas como pedir una pizza por teléfono.

Un programa como Auto-GPT podría, en teoría, elaborar un plan de negocios para un nuevo producto, aunque los grandes modelos de lenguaje actuales ciertamente no tienen el poder de idear un nuevo producto que la gente realmente quiera y seguir con precisión. La IA es inherentemente iterativa y en realidad no comprende su contenido generado en cualquier contexto de la vida real. Su salida se basa inherentemente en sus datos de entrenamiento, por lo que cualquier tipo de innovación «novedosa» que cree nacerá de ejemplos existentes que cumplan mejor con el mensaje original.

Los evangelistas de AI a menudo graznan que todos creaciones humanas son inherentemente iterativo, pero a diferencia de la IA, las creaciones de la humanidad provienen de la comprensión de las necesidades humanas básicas, o al menos del simple sentido de la empatía. Claro, una IA puede crear un producto, y tal vez ese producto incluso se venda. Pero, ¿sería un buen producto? ¿Realmente ayudaría a la gente? Si el objetivo final es «hacerme un millón de dólares», ¿importa eso?

¿Qué tipo de empatía necesitamos de la IA?

Suleyman solía liderar el desarrollo de IA en DeepMind, aunque ahora es el director ejecutivo y fundador de la startup Inflection AI. El chatbot líder de la compañía Pi es una IA muy capaz que intenta parecer empática. También es mucho más restrictivo que otros chatbots como ChatGPT. No puede buscar información en Internet, no puede generar código y enfatiza constantemente que no reemplaza a un terapeuta de la vida real o incluso a un compañero humano.

La última vez que hablé con Suleyman, dijo que el capacidades estrechamente definidas de su empresa IA armi el mayor punto de venta para el chatbot Insistió en que su equipo de desarrollo no quería algo que pudiera «maximizar la participación» en detrimento de los usuarios.

Para ser caritativo, es posible que el alumno de DeepMind solo esté considerando esta prueba como un ejemplo, pero si es así, ¿por qué la IA es lo primero que tiene en mente para ganar dinero? Grandes empresas tecnológicas, de Google a microsoft a OpenAI, están demasiado ocupados compitiendo para vender productos de IA a los usuarios que ninguno se toma el tiempo para considerar los riesgos o las implicaciones de sus sistemas. Los ejecutivos de la compañía se han burlado de solicitudes de la comunidad investigadora en general para frenar el desarrollo, ya que hasta ahora han demostrado que su primera prioridad es para los accionistas, no para la sociedad en general.

En negociaciones, Suleyman ha dicho que aquellos cuyos trabajos son desplazados por la IA necesitan una «compensación» de los gobiernos del mundo. De esa manera, ¿por qué no podemos tener un atisbo de consideración por parte de las empresas de tecnología que proliferan estos modelos de IA?

En esta época en la que los chatbots se han vuelto tan sofisticados que pueden replicar el habla humana, la IA puede aparecer fácilmente inteligente sin poder comprender nada de lo que dice. A pesar de que algunos agoreros y gente como el liderazgo de OpenAI, Sam Altman y Greg Brockman han proclamadono estamos ni cerca del nivel de AGI.

La IA ha progresado mucho, pero en muchos maneras, todavía está por debajo de la capacidadeses eso Los primeros informáticos imaginaron. El lenguaje natural ha sido durante mucho tiempo el objetivo de estas «máquinas informáticas de tipo Turing». Pero las máquinas que realmente «piensan» como los humanos todavía están fuera de nuestro alcance, y todavía hay un debate abierto si una computadora podría alguna vez ganar “inteligencia” real tal como la entienden los humanos. Por otro lado, tenías al ex empleado de Google Blake Lemoine afirmando que el modelo de chatbot de la empresa era realmente inteligente porque sonaba humano. Inteligencia hirviendo hasta una capacidad binaria para ganar dinero en efectivo sería aún menos útil que imaginar que la IA es tu amiga solo porque dice que lo es.



Source link-45