Hitting the Books: por qué la IA no tomará nuestros trabajos de cosmología


El problema de estudiar el universo que nos rodea es que es demasiado grande. Las estrellas en lo alto permanecen demasiado lejos para interactuar directamente con ellas, por lo que estamos relegados a probar nuestras teorías sobre la formación de las galaxias basadas en datos observables.

La simulación de estos cuerpos celestes en computadoras ha demostrado ser una ayuda inmensamente útil para comprender la naturaleza de la realidad y, como explica Andrew Pontzen en su nuevo libro, El universo en una caja: simulaciones y la búsqueda para codificar el cosmos, los avances recientes en tecnología de supercomputación están revolucionando aún más nuestra capacidad para modelar las complejidades del cosmos (sin mencionar la miríada de desafíos basados ​​en la Tierra) en una escala más pequeña. En el extracto a continuación, Pontzen analiza la reciente aparición de sistemas de inteligencia artificial centrados en la astronomía, lo que son capaces de lograr en el campo y por qué no le preocupa perder su trabajo por uno.

Libros de Riverhead

Adaptado de THE UNIVERSE IN A BOX: Simulations and the Quest to Code the Cosmos de Andrew Pontzen publicado el 13 de junio de 2023 por Riverhead, una editorial de Penguin Publishing Group, una división de Penguin Random House LLC. Copyright © 2023 Andrew Pontzen.


Como cosmólogo, paso gran parte de mi tiempo trabajando con supercomputadoras, generando simulaciones del universo para compararlas con datos de telescopios reales. El objetivo es comprender el efecto de sustancias misteriosas como la materia oscura, pero ningún ser humano puede digerir todos los datos que se tienen sobre el universo, ni todos los resultados de las simulaciones. Por esa razón, la inteligencia artificial y el aprendizaje automático son una parte clave del trabajo de los cosmólogos.

Considere el Observatorio Vera Rubin, un telescopio gigante construido en la cima de una montaña chilena y diseñado para fotografiar repetidamente el cielo durante la próxima década. No solo construirá una imagen estática: buscará particularmente objetos que se muevan (asteroides y cometas) o cambien de brillo (estrellas parpadeantes, cuásares y supernovas), como parte de nuestra campaña continua para comprender el cosmos en constante cambio. El aprendizaje automático se puede entrenar para detectar estos objetos, lo que permite estudiarlos con otros telescopios más especializados. Técnicas similares pueden incluso ayudar a filtrar el brillo cambiante de un gran número de estrellas para encontrar signos reveladores de qué planetas albergan, lo que contribuye a la búsqueda de vida en el universo. Más allá de la astronomía, no faltan aplicaciones científicas: la filial de inteligencia artificial de Google, DeepMind, por ejemplo, ha construido una red que puede superar todas las técnicas conocidas para predecir las formas de las proteínas a partir de su estructura molecular, un paso crucial y difícil para comprender muchas funciones biológicas. procesos.

Estos ejemplos ilustran por qué se ha generado entusiasmo científico en torno al aprendizaje automático durante este siglo, y ha habido fuertes afirmaciones de que estamos presenciando una revolución científica. Ya en 2008, Chris Anderson escribió un artículo para cableado revista que declaraba obsoleto el método científico, en el que los humanos proponen y prueban hipótesis concretas: ‘Podemos dejar de buscar modelos. Podemos analizar los datos sin hipótesis sobre lo que podría mostrar. Podemos arrojar los números en los grupos informáticos más grandes que el mundo haya visto jamás y dejar que los algoritmos estadísticos encuentren patrones donde la ciencia no puede.

Creo que esto es llevar las cosas demasiado lejos. El aprendizaje automático puede simplificar y mejorar ciertos aspectos de los enfoques científicos tradicionales, especialmente cuando se requiere el procesamiento de información compleja. O puede digerir texto y responder preguntas objetivas, como lo ilustran sistemas como ChatGPT. Pero no puede suplantar por completo el razonamiento científico, porque se trata de la búsqueda de una mejor comprensión del universo que nos rodea. Encontrar nuevos patrones en los datos o reafirmar hechos existentes son solo aspectos limitados de esa búsqueda. Hay un largo camino por recorrer antes de que las máquinas puedan hacer ciencia significativa sin supervisión humana.

Para comprender la importancia del contexto y la comprensión en la ciencia, considere el caso del experimento OPERA que en 2011 aparentemente determinó que los neutrinos viajan más rápido que la velocidad de la luz. La afirmación está cerca de una blasfemia de la física, porque la relatividad tendría que ser reescrita; el límite de velocidad es parte integral de su formulación. Dado el enorme peso de la evidencia experimental que respalda la relatividad, poner en duda sus fundamentos no es un paso que deba tomarse a la ligera.

Sabiendo esto, los físicos teóricos hicieron cola para descartar el resultado, sospechando que los neutrinos en realidad debían estar viajando más lento que las medidas indicadas. Sin embargo, no se pudo encontrar ningún problema con la medición, hasta que, seis meses después, OPERA anunció que un cable se había soltado durante su experimento, lo que explicaba la discrepancia. Los neutrinos no viajaban más rápido que la luz; los datos que sugerían lo contrario habían sido erróneos.

Los datos sorprendentes pueden dar lugar a revelaciones en las circunstancias adecuadas. El planeta Neptuno fue descubierto cuando los astrónomos notaron algo mal con las órbitas de los otros planetas. Pero cuando una afirmación discrepa de las teorías existentes, es mucho más probable que haya una falla en los datos; este fue el presentimiento en el que los físicos confiaron al ver los resultados de OPERA. Es difícil formalizar tal reacción en una regla simple para programar en una inteligencia informática, porque está a mitad de camino entre los mundos de recuperación de conocimientos y búsqueda de patrones.

Los elementos humanos de la ciencia no serán replicados por máquinas a menos que puedan integrar su procesamiento flexible de datos con un corpus de conocimiento más amplio. Hay una explosión de diferentes enfoques hacia este objetivo, impulsada en parte por la necesidad comercial de inteligencias informáticas para explicar sus decisiones. En Europa, si una máquina toma una decisión que lo afecta personalmente (rechazar su solicitud de hipoteca, tal vez, o aumentar las primas de su seguro, o detenerlo en un aeropuerto), tiene el derecho legal de pedir una explicación. Esa explicación necesariamente debe llegar más allá del estrecho mundo de los datos para conectarse con un sentido humano de lo que es razonable o irrazonable.

Problemáticamente, a menudo no es posible generar una cuenta completa de cómo los sistemas de aprendizaje automático toman una decisión particular. Utilizan muchas piezas de información diferentes, combinándolas de formas complejas; la única descripción verdaderamente precisa es escribir el código de la computadora y mostrar la forma en que se entrenó la máquina. Eso es exacto pero no muy explicativo. En el otro extremo, uno podría señalar un factor obvio que dominó la decisión de una máquina: usted es un fumador de toda la vida, tal vez, y otros fumadores de toda la vida murieron jóvenes, por lo que se le ha negado un seguro de vida. Esa es una explicación más útil, pero puede que no sea muy precisa: se han aceptado otros fumadores con un historial laboral y un historial médico diferentes, entonces, ¿cuál es exactamente la diferencia? Explicar las decisiones de manera fructífera requiere un equilibrio entre precisión y comprensibilidad.

En el caso de la física, el uso de máquinas para crear explicaciones digeribles y precisas que estén ancladas en leyes y marcos existentes es un enfoque en sus inicios. Comienza con las mismas exigencias que la inteligencia artificial comercial: la máquina no solo debe señalar su decisión (por ejemplo, que ha encontrado una nueva supernova) sino también proporcionar una pequeña cantidad de información digerible sobre por qué ha llegado a esa decisión. De esa manera, puede comenzar a comprender qué hay en los datos que ha llevado a una conclusión particular y ver si está de acuerdo con sus ideas y teorías existentes de causa y efecto. Este enfoque ha comenzado a dar sus frutos, produciendo ideas simples pero útiles sobre la mecánica cuántica, la teoría de cuerdas y (a partir de mis propias colaboraciones) la cosmología.

Estas aplicaciones todavía están enmarcadas e interpretadas por humanos. ¿Podríamos imaginar, en cambio, que la computadora formule sus propias hipótesis científicas, equilibre los nuevos datos con el peso de las teorías existentes y continúe explicando sus descubrimientos escribiendo un artículo académico sin ayuda humana? Esta no es la visión de Anderson del futuro libre de teorías de la ciencia, sino un objetivo más emocionante, más disruptivo y mucho más difícil: que las máquinas construyan y prueben nuevas teorías sobre cientos de años de conocimiento humano.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47