.

Daniel Zender

Computación

Tres ejemplos del gran aporte de la computación a la ciencia espacial

1

Los avances en supercomputación, inteligencia artificial, computación en la nube están acelerando y democratizando innumerables investigaciones de astronomía y astrofísica, y logrando responder a preguntas que antes hubieran sido imposibles de contestar

  • por Tatyana Woodall | traducido por Ana Milutinovic
  • 11 Noviembre, 2021

A medida que los científicos espaciales recopilan cada vez más datos, los observatorios de todo el mundo están encontrando nuevas formas de aplicar la supercomputación, la computación en la nube y el aprendizaje profundo para darle sentido a todo. A continuación, se muestran algunos ejemplos de cómo estas tecnologías están cambiando cómo los astrónomos estudian el espacio.

¿Qué ocurre cuando dos agujeros negros chocan?

Como estudiante de posdoctorado en EE. UU., el astrofísico Eliu Huerta empezó a pensar en cómo la tecnología podría ayudar a lograr más avances en su campo. Luego, los investigadores detectaron por primera vez en 2015 las ondas gravitacionales con LIGO (Observatorio de Interferometría Láser de Ondas Gravitacionales).

Desde entonces, los científicos registran estas observaciones y se esfuerzan en aprender todo lo que pueden sobre estas potencias esquivas. Han detectado varias docenas más de señales de ondas gravitacionales y los avances en computación les están ayudando a mantenerse al día. 

En su postdoctorado, Huerta buscó las ondas gravitacionales intentando tediosamente hacer coincidir los datos recopilados por los detectores con un catálogo de posibles formas de onda. Quería encontrar una manera mejor de hacerlo.

A principios de este año, Huerta, quien en la actualidad es científico computacional en el Laboratorio Nacional Argonne cerca de Chicago (EE. UU.), creó un conjunto de modelos de inteligencia artificial (IA) capaz de procesar el equivalente de un mes de datos de LIGO en solo siete minutos.

Sus algoritmos, que se ejecutan los procesadores especiales para imágenes llamados GPU, combinan avances en inteligencia artificial y computación distribuida. Usando ordenadores separados o redes que actúan como un solo sistema, Huerta puede identificar lugares gravitacionalmente densos como los agujeros negros, que producen ondas cuando se fusionan.

El conjunto de modelos de IA de Huerta es de código abierto, lo que significa que cualquiera puede usarlos. "No todo el mundo tiene acceso a un superordenador", resalta. "Esto reducirá los obstáculos para que los investigadores adopten y utilicen la IA".

¿Cómo ha cambiado el cielo nocturno?

Por mucho que la astronomía se haya expandido, ha tardado en integrar la computación en la nubeEl Observatorio Vera C. Rubin, actualmente en construcción en Chile, se convertirá en la primera institución astronómica de su tamaño en adoptar una instalación de datos basada en la nube.

Cuando el observatorio se ponga en marcha en 2024, los datos que capture su telescopio estarán disponibles como parte del proyecto Legacy Survey of Space and Time (LSST), que creará un catálogo miles de veces más grande que cualquier estudio anterior del cielo nocturno. Los de antes casi siempre se descargaban y almacenaban localmente, lo que dificultaba a los astrónomos el acceso al trabajo de los demás.

"Estamos creando un mapa completo del cielo", afirma la miembro del equipo de gestión de datos de Rubin Hsin-Fang Chiang. Y en el proceso, añade que están construyendo "un enorme conjunto de datos que será útil para muchos tipos diferentes de trabajos científicos de astronomía".

Aunque el doctorado de Chiang es en astronomía, su investigación inicial no tuvo nada que ver con este campo. Años más tarde, tuvo la oportunidad de participar gracias al gran tamaño del proyecto y se enorgullece de que su trabajo pueda mejorar la forma en la que los científicos colaboran.

Este proyecto de 10 años subirá a la nube un conjunto de datos e imágenes de 500 petabytes, para ayudar a los astrónomos a responder a preguntas sobre la estructura y evolución del universo.  

Este proyecto de 10 años subirá a la nube un conjunto de datos e imágenes de 500 petabytes.

"Tendremos más de 800 imágenes para cada posición en el cielo. Incluso se podrá ver lo que sucedió en el pasado. Por eso es muy interesante, especialmente para las supernovas u otras cosas que cambian mucho", resalta Chiang.

El Observatorio Rubin procesará y almacenará 20 terabytes de datos cada noche mientras mapea la Vía Láctea y otros lugares más allá. Los astrónomos afiliados al proyecto a través de un navegador web. Con el tiempo, las imágenes que podrán acceder y analizar esos datos desde cualquier lugar el telescopio toma todas las noches se convertirán en una base de datos online de estrellas, galaxias y otros cuerpos celestes.

¿Cómo era el universo primitivo?

Los avances en la computación podrían ayudar a los astrónomos a retroceder el reloj cósmico. A principios de este año, astrónomos japoneses utilizaron el superordenador ATERUI II, que se especializa en las simulaciones astronómicas, para reconstruir cómo podía haber sido el universo desde el Big Bang.

ATERUI II está ayudando a los investigadores a estudiar la inflación cósmica, la teoría de que el universo primitivo se expandió exponencialmente en un instante. Los astrónomos coinciden en que esta expansión habría dejado variaciones extremas en la densidad de la materia que habrían afectado tanto la distribución de las galaxias como la forma en la que se desarrollaron.

El proyecto requiere una gran cantidad de almacenamiento de datos (unos 10 terabytes, equivalente a 22.000 episodios de 'Juego de tronos')

Al comparar 4.000 simulaciones del universo primigenio (todas con diferentes fluctuaciones de densidad) con la realidad, los científicos podrían rebobinar el tiempo y preguntarse por qué algunos lugares del universo están llenos de actividad cósmica mientras que otros resultan estériles.

El profesor asistente del Observatorio Astronómico Nacional de Japón Masato Shirasaki, afirma que sería casi imposible responder a esas preguntas sin estas simulaciones. El proyecto requiere una gran cantidad de almacenamiento de datos (unos 10 terabytes, equivalente a 22.000 episodios de Juego de tronos).

El equipo de Shirasaki ha desarrollado un modelo de cómo se cree que ha evolucionado el universo y lo ha aplicado a cada una de las simulaciones para ver qué resultado sería más cercano a su apariencia actual. Este método facilitó la exploración de la física de la inflación cósmica.

En los próximos años, los métodos de Shirasaki podrían ayudar a reducir el tiempo de observación necesario para los futuros esfuerzos como SPHEREx, la misión de dos años programada para 2024 de una nave espacial que orbitará la Tierra y observará casi 300 millones de galaxias en el cielo. Con estos avances en la computación, nuestra comprensión del universo está creciendo, poco a poco.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Google anuncia un hito hacia la computación cuántica sin errores

    Una técnica llamada “código de superficie” permite a los bits cuánticos de la empresa almacenar y manipular datos fielmente durante más tiempo, lo que podría allanar el camino a ordenadores cuánticos útiles

  2. El vídeo es el rey: bienvenido a la era del contenido audiovisual

    Cada vez aprendemos y nos comunicamos más a través de la imagen en movimiento. Esto cambiará nuestra cultura de manera inimaginable

    Dos personas creando contenido en formato vídeo
  3. Esta empresa quiere superar a Google e IBM en la carrera cuántica con un superordenador de fotones

    La empresa quiere construir una computadora que contenga hasta un millón de cúbits en un campus de Chicago