Skip to main content

Recursos

  • Deadlines:
    HPC/AI:    ~ 08/09/25
    DATA:       ~ 18/02/26
    Seminars: ~ 20/02/26
  • Deadlines:
    HPC/AI:    ~ 08/09/25
    DATA:       ~ 18/02/26
    Seminars: ~ 20/02/26
  • Deadlines:
    HPC/AI:    ~ 08/09/25
    DATA:       ~ 18/02/26
    Seminars: ~ 20/02/26
Supercomputación

Recursos HPC

Los recursos de supercomputación (HPC, por sus siglas en inglés) de la RES consisten en el acceso los superordenadores que conforman la RES para llevar a cabo proyectos de investigación de vanguardia en diferentes ramas de la ciencia.

La capacidad total de los superordenadores de la RES excede los 329 PFlop/s, proporcionando más de 90 PFlop/s exclusivamente para los usuarios de la RES.

Estos superordenadores pueden tener únicamente procesadores (CPUs) o ser híbridos con procesadores y aceleradores gráficos (CPUs + GPUs). Esto permite abordar diferentes problemas que abarcan desde la supercomputación tradicional para realizar cálculos complejos hasta la creación de gemelos digitales para simular y predecir sistemas completos. 

Medidas de rendimiento y capacidad computacional

Existen varias métricas para medir la capacidad computacional y el rendimiento de un superordenador. Tres de ellas son particularmente útiles: las horas de nodo (o node hours), los Flop y los Flop/s:

  • Una node hour es el equivalente a usar 1 nodo de procesamiento en su totalidad durante 1 hora. Estos nodos pueden estar formados únicamente por CPUs o por CPUs y GPUs combinadas.

    Los núcleos de cómputo típicos de las CPUs no son extrapolables a las GPUs y crear equivalentes es una tarea que no es trivial. Por este motivo, 
    las tradicionales core hours pierden utilidad ya que no contemplan estos sistemas acelerados y motivan el uso de node hours como métrica de capacidad computacional. 

    Como los superordenadores disponen de muchos nodos, se pueden utilizar varios de ellos simultáneamente para conseguir un rendimiento mayor gracias a que trabajan de forma paralelizada. 432 node hours, por ejemplo, podrían equivaler a 72 nodos de un superordenador trabajando simultáneamente durante 6 horas.

     

  • Los Flop son operaciones de punto flotante, es decir, cálculos utilizando números decimales. Los flop sirven como medida del volumen computacional de un proyecto y son una métrica muy útil para estimar el tamaño de un proyecto independientemente de la estructura del superordenador que utilice. Por otro lado, los Flop/s son las operaciones de punto flotante por segundo que puede realizar un equipo y sirven como medida de la potencia computacional de un superordenador. En el caso de los servicios HPC, estos Flop/s son de 64 bits, mientras que en servicios de IA son de 32 bits. 

    Estas dos medidas funcionan de manera análoga al volumen y al caudal del agua, siendo los Flop el volumen total de agua a transportar (el proyecto científico a ejecutar) y los Flop/s el diametro de la tubería usada para hacerlo (el superordenador donde se ejectue dicho proyecto); una tubería más ancha (un superordenador más potente) tardará menos en transportar esta agua (en ejecutar un proyecto científico). 

    Estas dos métricas son especialmente útiles con la introducción de GPUs en los equipos, por el mismo motivo que lo son las node hours. Pero lo son aún más porque no dependen de la configuración de hardware de los nodos de cada máquina, únicamente de la cantidad de cálculos por segundo que puede realizar el superordenador y el volumen del proyecto.

Ejemplo

Un proyecto de tamaño mediano/grande MareNostrum5 ACC podría equivaler a un total de 100,000 node hours. 

La máquina dispone de 1,120 nodos de cómputo y un rendimiento total de 249.44 PFlop/s según el benchmark de la lista TOP500, por lo que cada nodo tiene un rendimiento medio de unos 222.71 TFlop/s. Por tanto, un proyecto de 100,000 node hours del MN5 Acc equivaldría a:

100,000 node hours x 3600s x 222.71 TFlop/s por nodo = 80,177 EFlop

Esta equivalencia permite estimar el esfuerzo computacional que requiere un proyecto únicamente sabiendo el rendimiento de sus nodos. Además, facilita comparar este esfuerzo entre diferentes máquinas, algo particularmente útil en una infraestructura distribuida como la RES.

Inteligencia Artificial

Recursos IA

Los recursos de Inteligencia Artifical (IA) son una nueva serie de recursos ofrecidos por la RES, diseñados para impulsar la investigación, el desarrollo y la innovación (I+D+I) en España mediante el uso de supercomputación aplicada a proyectos de IA en diversas disciplinas.

Con la incorporación de estos servicios, la RES no solo mejora su oferta de supercomputación tradicional y explotación de datos, sino que también facilita un acceso especializado a herramientas de IA, poniendo a disposición de la comunidad investigadora española capacidades esenciales para los retos científicos actuales.

¿Qué incluyen los recursos de IA?

Los recursos de IA están compuestos por recursos de hardware y software altamente especializados, enfocados en proporcionar soporte a investigadores que trabajan con modelos de IA:

  • Hardware: Sistemas de procesamiento con gran capacidad, que incluyen nodos híbridos con múltiples GPUs de alto rendimiento, capaces de manejar desde pequeños experimentos hasta entrenamientos extensos de modelos complejos de IA.
  • Software especializado: Los usuarios podrán acceder a un conjunto actualizado de herramientas y bibliotecas para el desarrollo de proyectos de IA. Entre ellas se incluyen algunas esenciales como Tensorflow, PyTorch, CUDA Toolkit, Pandas, xgboost, scikit-learn, keras o numpy y otras recomendables como Theano, Numba o Cupy.
  • Formación y soporte técnico: También ofrecemos formación especializada y tutorías para los usuarios, permitiendo maximizar el aprovechamiento de estos recursos a través de un aprendizaje continuo, mediante apoyo para la implementeación de herramientas de IA en sus proyectos. 

 

Computación Cuántica

Recursos QUANTUM

Los recursos QUANTUM son recursos de Computación Cuántica para el desarrollo y ejecución de algoritmos cuánticos, integrando tecnologías avanzadas en un entorno de computación híbrida.

Con la incorporación de estos recursos de tipologia experimental, la RES pretende ampliar su abanico de recursos de computación disponible y dotar a la comunidad investigadora europea con más herramientas de vanguardia.

¿Qué incluyen los recursos QUANTUM?

Los recursos QUANTUM disponibles actualmente consisten en, básicamente, dos tipologías de computadores cuánticos: 

  • Ordenadores cuánticos digitales: Sistemas basados en diversas tecnologías cuánticas, integrados con infraestructuras de supercomputación para facilitar la ejecución de algoritmos híbridos cuántico-clásicos.

  • Emuladores cuánticos:  Plataformas de simulación cuántica via computación tradicional que permiten desarrollar, probar y optimizar algoritmos cuánticos sin necesidad de hardware cuántico físico.
Gestión de datos

Recursos DATOS

Los recursos de datos de la RES están ideados para la gestión, almacenamiento y explotación de grandes volúmenes de datos, facilitando investigaciones científicas en múltiples disciplinas. Esto permite manejar datos provenientes de simulaciones, experimentos y análisis avanzados, proporcionando a los investigadores acceso a herramientas de alto rendimiento en los nodos de la RES que cuentan con servicios de gestión y explotación de datos.

Los nodos de la RES cuentan con más de 183 PB de capacidad de almacenamiento, de los cuales más de 41 PB están destinados a los usuarios de la RES. Esta infraestructura no solo garantiza un almacenamiento eficiente, sino también un acceso rápido y seguro, esencial para proyectos científicos complejos.

¿Qué incluyen los recursos de DATOS?

Los recursos de datos comprenden una infraestructura completa de almacenamiento y procesamiento, diseñada para gestionar grandes volúmenes de información de manera eficiente y segura:

  • Sistemas de almacenamiento: Almacenamiento multinivel que incluye almacenamiento en disco para acceso frecuente (tanto en archivos como objetos) y almacenamiento en cinta magnética para conservación a largo plazo, copias de seguridad y archivado eficiente de datos históricos.
  • Infraestructura virtual: Acceso a máquinas virtuales personalizables que permiten crear entornos específicos para el procesamiento y análisis de datos, ofreciendo flexibilidad en la configuración de recursos según las necesidades de cada proyecto.
  • Capacidad de cómputo complementaria: Recursos computacionales limitados para tareas intensivas de procesamiento de datos, permitiendo realizar análisis complejos, transformaciones y agregaciones de grandes conjuntos de datos sin la necesidad de crear un proyecto completo para recursos HPC.

 

Plan de Gestión de Datos

Los proyectos que quieran solicitar acceso a los recursos de DATOS de la RES deben presentar su propio Plan de Gestión de Datos (DMP, de sus siglas en inglés) para su correspondiente evaluación.

Los recursos de DATOS que ofrece la RES están destinados exclusivamente a servicios de gestión y explotación de datos, y no al almacenamiento masivo sin su correspondiente explotación, lo que se debe reflejar en el DMP. 

El tamaño mínimo requerido para realizar un proyecto de datos es de 200 TB, para aprovechar adecuadamente las capacidades de los nodos de la RES. Aunque no existe un límite estipulado, normalmente los proyectos de más de 1 PB son el límite superior de los proyectos presentados.

Contacta con la RES

¿Tienes alguna duda? ¡Contáctanos!

Formulario de contacto

CAPTCHA
Enter the characters shown in the image.