Recomendar este blog Notificar al moderador
SUPERCOMPUTACIÓN: Isidro Cano

Artículos

En la situación actual del HPC, donde los cluster de pequeñas máquinas se imponen de forma rotunda, resulta una necesidad casi asfixiante disponer de la suficiente memoria por nodo de cálculo.

En los pasillos de los grandes centros de cálculo y las universidades el clamor por más memoria se está haciendo oír tan fuerte como el de más Gigaflops.

Muchos administradores de centros de HPC empiezan a estar preocupados por las repetidas quejas de usuarios que ven morir largos proceso por la escasez de memoria en los nodos.

Un buen ejemplo de esta situación son los geofísicos, que se ven obligados a interpretar grandes cantidades de datos en tiempo real, en la acuciante búsqueda de nuevos recursos naturales.

Además de mucha memoria los usuarios de grandes trabajos demandan a sus administradores de sistemas que fallos en el hardware no den al traste con semanas de iteraciones. Es decir se busca, aunque a veces no se dice, un alto grado de disponibilidad. Y es aquí donde sistemas más robustos, usados en los entornos críticos de procesos de negocio, y con capacidad para albergar cientos o miles de Gigabytes de memoria se convierten en los SuperNodos de Clusters de Cálculo.

Estos SuperClusters de máquinas de memoria compartida, no se caracterizan por el número de sus nodos sino por las capacidades de cada uno de ellos. Lo que les permite realizar retos vedados para el resto de los Clusters. En esta familia de soluciones de HPC el procesador Itanium es el que sin lugar a dudas domina la manada.

Otro factor que se alía con este tipo de máquinas es la adición de más núcleos de proceso por pastilla de silicio, está tendencia a la que es imposible oponerse o tan siquiera rechistar está cambiado el modelo de programación puro por paso de mensajes,( MPI), por un modelo de programación híbrido basados en hebras de programación dentro de cada nodo (OpenMP), y paso de mensajes ente los nodos. Y es precisamente esta manera de programar la que también se adapta a los potentes nodos Itanium cargados de memoria.

Además y por descontado las aplicaciones programadas en OpenMP deseosas de acceder al mayor número de procesadores compartiendo la mayor cantidad de memoria, serán siempre unas grandes beneficiarias de estos sistemas.

Una mayor facilidad en la gestión inherente a esta especie ayuda a su crecimiento demográfico, y hoy en día es norma, en los grandes centros de proceso de datos científico y técnicos, ver juntos a Clusters muy densos y efectivos en coste de adquisición, y a Clusters de máquinas de memoria compartida habilitadores de nuevos y mayores retos con un interesante coste de adquisición.

La necesidad de Clusters dotados de mucha memoria compartida es una importante necesidad y gran aspiración de la ciencia en España. Esta inquietud se ve refleja en conversaciones con nuestros químicos, geólogos, astrónomos, ingenieros , …. Y es una excelente noticia saber que muy importantes centros de investigación y desarrollo de nuestro país ya cuentan o contarán en breve con esta tecnología capaz de derribar barreras en nombre de nuestra ciencia.

Iñaki Eiguren
Jueves, 3 de Abril 2008



Editado por
Isidro Cano
Eduardo Martínez de la Fe
Ingeniero Superior de Telecomunicación por la ETSIT de Madrid (1977), Isidro Cano es asimismo MBA's en Marketing y en Administración de Empresas por ESEM de Madrid. Con 28 años de experiencia laboral en compañías como Omron, Gould, Commodore, Digital/Compaq, en la actualidad es Director de Supercomputación en HP Iberia. También es autor del libro "El don de la Palabra" (Paraninfo, 2006)


Secciones

Archivo

Noticias sobre supercomputadores


RSS ATOM RSS comment PODCAST Mobile