Las redes neuronales son maestras en el reconocimiento de patrones. Pero, ¿dónde está el regalo de un Isaac Newton?


Deducir e inducir: Durante siglos estos dos métodos de conocimiento científico se han complementado. Sin embargo, con la llegada de los algoritmos adaptativos, se avecina un cisma.

¿Qué sería del mundo sin la teoría? Una pizarra en el CERN en Ginebra muestra cálculos sobre física de partículas.

Decano Mouhtaropoulos/Getty

¿Qué es más importante, anticipar las cosas o explicarlas? Esta es una vieja pregunta en la ciencia. Y la respuesta común a eso es: ambos son importantes; La mejor manera de anticipar el curso de las cosas es comprender su relación causal, y viceversa. Hasta ahora, al menos, esta ha sido la réplica predeterminada. Hoy no.

David Krakauer, director del Instituto de Investigación de la Complejidad de Santa Fe, habla de un «cisma» entre explicación y predicción: «Está surgiendo un cisma en la empresa de investigación científica. Está, por un lado, el espíritu humano, la fuente de toda narración, teoría y explicación que atesora nuestra especie. Y luego están las máquinas. Sus algoritmos poseen un poder predictivo asombroso, pero su funcionamiento interno sigue siendo radicalmente opaco para el observador humano (…) Nos enfrentamos a la elección de qué tipo de conocimiento es más significativo, así como cuál de los dos tipos conduce al desarrollo científico. progresar en el camino».

Eso suena muy dramatizado, pero Krakauer llega al corazón de la situación actual de la ciencia: las dos corrientes principales de los tiempos modernos se están distanciando, el estilo de investigación dirigido por la teoría y el dirigido por la experiencia empírica. Para explicar una pequeña digresión histórica.

Una exitosa cooperación de dos estilos de investigación

El primer estilo encontró su primera obra maestra en la teoría universal y fundamental de la naturaleza de Isaac Newton, quien Philosophiae naturalis Principia Mathematica. Una catedral de teorías diseñada en lenguaje matemático, apoyada sobre los sólidos pilares de unos principios universales. Esto creó un nuevo ideal de conocimiento: la deducción de arriba hacia abajo, es decir, la conclusión de los principios fundamentales de la naturaleza al caso individual. Durante tres siglos inspiraría logros sin precedentes en físicos, desde Newton a Laplace, Boltzmann, Maxwell, Hertz, Einstein, Planck, Schrödinger hasta la búsqueda actual de una «teoría del todo».

El segundo estilo opera de abajo hacia arriba. Comienza empíricamente con observaciones, experimentos, datos, y trata de abstraer, de «inducir», patrones generales a partir de ellos. Francis Bacon es considerado el fundador filosófico, razón por la cual el estilo de investigación también se conoce como «baconiano». Al principio no se afirmó tanto en mecánica y astronomía como en áreas que resultaron más resistentes a la matematización: óptica, calor, química, biología, geología. Y utilizó un arsenal técnico de aparatos mecánicos, microscopios, telescopios, barómetros, termómetros, bombas de aire, detectores de electricidad, aparatos químicos. Básicamente, el éxito de la ciencia moderna se debe al extraordinario golpe de suerte de una cooperación exitosa entre los dos estilos de investigación: la «perspectiva del cerebro» teórica y la «perspectiva del equipo» empírica. Krakauer ve esta cooperación en peligro.

Los algoritmos reconocen patrones mejor que los humanos

La ciencia atraviesa actualmente el umbral de una nueva era, la del estilo de investigación guiado por algoritmos. Las redes neuronales pueden manejar una inmensa cantidad de parámetros. Aprenderá a reconocer relaciones y patrones a partir de volúmenes de datos. Su desempeño ya es impresionante. En este sentido, puede verse como una continuación de las ciencias baconianas con medios más potentes. Pero los algoritmos también interfieren con el estilo basado en la teoría.

Un equipo de ETH Zurich lo creó recientemente. un «agente» artificialmente inteligente que aprendió a simplificar el cálculo de las órbitas planetarias cambiando de perspectiva geocéntrica a heliocéntrica. ¿Hizo un «cambio copernicano»? El estudio es bastante notable desde un punto de vista algorítmico. Plantea la esperanza de que la inteligencia artificial se teorice a sí misma.

Los investigadores escriben: «Nuestro trabajo proporciona un primer paso para responder a la pregunta de si los métodos tradicionales utilizados por los físicos para crear modelos de la naturaleza resultan automáticamente de datos experimentales, sin conocimientos físicos y matemáticos previos». En lenguaje sencillo: la red neuronal aprende la física en sí misma si la alimenta con el material de datos «correcto», tal vez más física de la que se puede esperar que la gente acepte. Ya poder en los medios el término ciencia «post-teórica» ​​estaba dando vueltas.

Isaac Newton (1643-1727) fue un maestro en discernir los principios fundamentales de la naturaleza.

Isaac Newton (1643-1727) fue un maestro en discernir los principios fundamentales de la naturaleza.

Brandstaetter Images/Hulton Fine Art Collection/Getty

¿Qué significa explicar realmente?

las dudas están justificadas. Sobre todo, porque los modelos naturales son “resultados de datos experimentales sin conocimiento previo”. ¿No provienen del pensamiento todos los conceptos fundamentales de la física: espacio, tiempo, movimiento, materia, fuerza, energía, ondas, campos, por nombrar algunos? ¿Cómo quiere «explicar» un físico artificial si no tiene «conocimiento previo», es decir, no comprende los términos explicativos? Una respuesta negativa popular de los científicos en primera línea es: todavía estamos muy lejos de lo que se espera. Entonces, ¿por qué no comenzar con algo más obvio? Por ejemplo, con una pregunta como: ¿Qué significan realmente «teoría» y «explicación»?

Me atrevo a dar aquí la respuesta más simple posible: Teoría es pensar en subjuntivo, siempre comienza con la frase “Vamos a imaginar que. . .» o «¿Y si…? . .». El empirismo, en cambio, es pensar en indicativo, comienza con la frase «Veamos qué es». . .» El prehomínido que hace 50.000 años no preguntaba simplemente «¿Dónde está el mamut?», sino «¿Dónde podría estar el mamut en estas condiciones climáticas?», empezó a teorizar. Los modelos no surgen por sí solos de los datos experimentales. No leemos la dinámica de los cuerpos celestes a partir de datos, sin importar cuán grandes sean; la partícula de Higgs no se descubrió a partir de correlaciones en el Gran Colisionador de Hadrones; y el cáncer que no entendemos de las redes bayesianas. Sin teoría, la ciencia es causalmente ciega.

La «maquinaria de inducción» respaldada por algoritmos nos proporciona respuestas a las preguntas qué-dónde-cuándo. No por qué preguntas. Cuanto más avanza el aprendizaje profundo, más necesitamos un pensamiento profundo que se ocupe de las causas explicativas. Queda por ver hasta qué punto podemos delegarlo en la máquina. Visto correctamente, el «cisma» apunta a un nuevo tipo de cooperación entre el poder del cerebro y el poder de la computación. En cualquier caso, el cerebro humano todavía tiene mucho por delante. Sobre todo gracias a los algoritmos.

Siga a los editores científicos de la NZZ Gorjeo.





Source link-58