xiand.ai
Tecnología

CERN integra inteligencia artificial en silicio para filtrar datos del gran colisionador

El CERN enfrenta un desafío masivo de datos con el Gran Colisionador de Hadrones. La investigadora Thea Aarrestad explica cómo la IA se quema en el hardware para tomar decisiones en nanosegundos. Este enfoque único permite retener solo el 0.02% de la información relevante de las colisiones.

La Era

3 min de lectura

CERN Embeds AI in Silicon to Filter LHC Data at Nanosecond Speeds
CERN Embeds AI in Silicon to Filter LHC Data at Nanosecond Speeds
Publicidad

El CERN utiliza inteligencia artificial personalizada integrada directamente en el silicio para gestionar el flujo masivo de información generado por sus experimentos. Thea Aarrestad, profesora asistente en la ETH Zurich, presentó estos detalles durante la cumbre virtual Monster Scale Summit este mes. La organización suiza busca eliminar el exceso de datos antes de que saturen sus sistemas de almacenamiento globales.

El Gran Colisionador de Hadrones genera 40.000 EB de datos sin filtrar cada año, una cifra que representa aproximadamente un cuarto del tamaño de todo Internet. Aarrestad estimó que el centro no puede almacenar toda esa información cruda ni transportarla a la superficie sin recursos masivos. Por lo tanto, la reducción de datos debe ocurrir en tiempo real extremo dentro del anillo subterráneo de 27 kilómetros.

Los sistemas de detección procesan datos a velocidades de 100 terabytes por segundo, mucho más rápido que los requerimientos de empresas como Google o Netflix. Los algoritmos deben ser extremadamente rápidos para cumplir con estos plazos estrictos de latencia en un entorno de física de partículas. Las decisiones se queman en el diseño del chip mismo para evitar cualquier retraso en la transmisión de datos críticos.

Dentro del anillo de 27 kilómetros, los protones viajan casi a la velocidad de la luz separados por intervalos de 25 nanosegundos. Las colisiones son increíblemente raras, con solo 60 pares colisionando entre miles de millones de protones en cada cruce. Cada evento produce megabytes de datos que se convierten en rastros de partículas que los científicos intentan reconstruir.

En lugar de enviar toda la información, el CERN creó un sistema de computación en el borde para seleccionar las partes interesantes en el nivel del detector. Menos del 0.02% de los datos de colisión se guarda y analiza, lo que obliga a los detectores a elegir las escenas de acción. El Trigger Nivel Uno utiliza alrededor de 1.000 FPGAs para tomar decisiones digitales en microsegundos.

El algoritmo de detección de anomalías, llamado AXOL1TL, debe ser increíblemente selectivo y rechazar más del 99.7% de la entrada. Está entrenado en el fondo, las áreas del Modelo Estándar que ya han sido investigadas para identificar lo nuevo. La decisión de mantener o perder una colisión sucede en 50 nanosegundos sin intervención humana.

Solo aproximadamente 110.000 eventos por segundo pasan el corte y se envían a los servidores en tierra para un segundo filtro. Este sistema de superficie cuenta con 25.600 procesadores y 400 unidades de procesamiento gráfico para analizar los resultados. El data resultante se replica en 170 sitios de 42 países para el análisis distribuido de investigadores.

Los ingenieros del CERN tuvieron que crear su propio conjunto de herramientas porque las bibliotecas existentes no soportan las tasas de streaming requeridas. Los modelos de IA se entrenaron para ser pequeños desde el inicio y se cuantificaron para optimizar cada operación en el FPGA. Se desarrolló un transpilador llamado HLS4ML para escribir modelos en código C++ compatible con aceleradores específicos.

La arquitectura del detector rompe con el modelo tradicional de Von Neumann y se basa en la disponibilidad de datos en lugar de la secuenciación. La mayor parte del silicio se utiliza para pre-cálculos para ahorrar procesamiento en cada calculadora individual. Los modelos basados en árboles ofrecen el mismo rendimiento que los de aprendizaje profundo a un costo fraccional.

Este año el colisionador se detendrá para prepararse para el High Luminosity LHC, que operará en 2031 con un aumento de 10 veces en los datos. El equipo de física está avanzando en la dirección opuesta a los laboratorios de IA que construyen modelos cada vez más grandes. A veces es mejor saber qué información descartar cuando se busca comprender el funcionamiento del universo.

Publicidad

Comentarios

Los comentarios se almacenan localmente en tu navegador.

Publicidad