Proyectos mundiales se procesan en supercomputadoras mexicanas — ciencias
Usted está aquí: Inicio / tecnología / Proyectos mundiales se procesan en supercomputadoras mexicanas

Proyectos mundiales se procesan en supercomputadoras mexicanas

Forum Noticias. México cuenta con una infraestructura de supercómputo capaz de simular y analizar datos de grandes experimentos científicos, principalmente en el área de física de altas energías, señaló Humberto Salazar, investigador de la Benemérita Universidad Autónoma de Puebla (BUAP) y director del Laboratorio Nacional de Supercómputo (LNS) del Sureste.

Durante su participación en el Simposio Fronteras de la Ciencia, organizado por el Consejo Nacional de Ciencia y Tecnología (CONACyT) y la Sociedad Max Planck, refirió que además de la infraestructura con la que cuenta la universidad poblana, centros de investigación CONACyT, como el Instituto Potosino de Investigación Científica y Tecnológica en San Luis Potosí, las Universidades Nacional Autónoma de México y Autónoma Metropolitana, así como el Centro de Investigación y de Estudios Avanzados, conforman una red que en su conjunto alcanzan una capacidad de cómputo de hasta 2 petabytes.

“No es mucho, pero estamos listos para incrementar la potencia y trabajar a estas escalas de cómputo”. Añadió que al consorcio de la Red Mexicana de Supercómputo se sumará próximamente la Universidad de Guadalajara (UdeG), que contará con el equipo más robusto del país.

El laboratorio bajo su cargo brinda servicio al Instituto Nacional de Astrofísica Óptica y Electrónica (INAOE), a las Universidades de las Américas y Autónoma de Chiapas, así como a institutos de investigación nacionales y realizan colaboraciones académicas con 25 instituciones más.

Pero adicionalmente, el laboratorio de supercómputo lleva a cabo una colaboración internacional a través de experimentos como el del Gran Colisionador de Hadrones, ubicado en Ginebra, Suiza, donde existen diversos grupos de investigación mexicanos en los detectores CMS (Compact Muon Solenoid) y ALICE (A Large Ion Collider Experiment).

“En el equipo de CMS, el grupo mexicano usa nuestro laboratorio para hacer simulación y análisis de datos del experimento. Por ejemplo, simulamos el modelo de decaimiento de un bosón de Higgs pesado en dos bosones”. Agregó que el experimento internacional tiene, al menos, 121 publicaciones que mencionan al LNS como centro de colaboración de supercómputo.

Otro de los servicios científicos que ofrece es a la comunidad de investigación en rayos cósmicos, que tiene como proyectos principales el Observatorio de Rayos Gamma HAWC (ubicado en Puebla) y el Observatorio Pierre Auger (Argentina). “Para ello empleamos modelos de simulación de los chubascos de partículas de rayos cósmicos que entran a la atmósfera, eventos que requieren mucho tiempo de cómputo. Simulamos cuál es su energía, composición de masa y dirección de los rayos cósmicos”.

El académico de la BUAP concluyó que el LNS es un laboratorio de supercómputo consolidado y se ha convertido en una herramienta de cómputo importante en el país para realizar investigación en varias áreas científicas.

Por su parte, Stefan Heinzel —especialista del Centro de Cómputo e Información del Max Planck— expuso que existen muchos retos y oportunidades en las aplicaciones que necesitan las ciencias computacionales en los próximos años. Refirió que el proceso de cómputo se ha aumentado década con década con el avance tecnológico, el cual se ha incrementado de forma exponencial en los últimos 20 años.

“Ahora, los complejos de supercómputo trabajan en petaflops (1015 bytes), pero en los  próximos años, quizá la década entrante, utilizaremos exaflops (mil petaflops), aunque no sabemos para qué tipo de máquina será”.

FCCyT

comentarios de blog provistos por Disqus