Recomendar este blog Notificar al moderador
SUPERCOMPUTACIÓN: Isidro Cano


El software actual aconseja arquitecturas estándares, compensadas y distribuidas entre los usuarios científicos, no Peta-Colosos de Rodas



Los grandes superordenadores crecen en potencia de cálculo en una carrera exponencial que verá alcanzar el petaflop en este año 2008, es decir, la clasificación Top500 que ordena las 500 máquinas más potentes del mundo, verá posiblemente este record en su próxima edición en el mes de Junio. 1 Petaflop significa realizar 1000 billones de operaciones por segundo en coma flotante. Actualmente la máquina más potente supera los 0,4 Petaflops.

Alcanzar esa potencia se conseguirá con una granja de miles de servidores que ponen sus procesadores a calcular en paralelo, de forma que multiplicando las operaciones que realiza cada uno por segundo, por el número de ellos, nos dará la bonita cifra esperada.

Podría pensarse que gracias a esta altísima velocidad de cálculo, podremos resolver tareas tan complejas como simular el planeta Tierra o conocer el origen del Universo en detalle, sin embargo, los programas de ordenador son una serie de instrucciones que se realizan secuencialmente y la paralelización de tareas o instrucciones tienen un límite muy inferior.

En la actualidad, se considera el tope en 10.000 procesadores, los que pueden trabajar en paralelo para ejecutar el programa que permite el máximo paralelismo. La máquina que llegue al Petaflop tendrá un mínimo de 500.000 procesadores. Parece por tanto que no se empleará en su totalidad para un mismo programa sino que será troceada para atender cientos de proyectos diferentes a la vez.

¿Es megalomanía o desconocimiento de esta situación, lo que mueve a los responsables políticos, financieros y técnicos a emplear tantos recursos en algo de dudosa necesidad? ¿No sería más interesante reforzar la investigación invirtiendo en recursos distribuidos en cada región, según las necesidades locales? Quizás las redes GRID para compartir y colaborar puedan suponen una alternativa más interesante.

Un Top dudoso

El Top500, en su carrera desenfrenada apoyada por el desarrollo informático, hace que el primero de la lista quede fuera de ella en unos seis o siete años. Asusta pensar en la obsolescencia producida en activos de coste tan elevado. No olvidemos que la mayoría de los grandes superordenadores se financian con dinero público.

Por otro lado, la forma de realizar el ranking es ejecutando el programa Linpack por parte de los dueños de cada máquina, sin una auditoría seria sobre los resultados y muchas veces simplemente fiándose el Top500, de estimaciones teóricas. De hecho aparecen máquinas que aún no están instaladas. Esta falta de rigor científico no parece que se corresponda con el prestigio alcanzado por este listado.

Es tan popular que alguna institución científica española de mucha fama llegó a plantear en las plicas de un concurso público para la adjudicación de un superordenador, que la empresa fabricante se debería comprometer a añadir el hardware necesario para dicha máquina estuviese en el Top500 en los 5 años siguientes a su instalación.

Linpack es un programa de puro cálculo pero no contempla el troughput, es decir, la capacidad multitarea para atender muchos programas y atender a muchos usuarios. Solo se potencia disponer de muchos procesadores, pero no se considera la cantidad de memoria o la velocidad de las redes o un almacenamiento ágil y masivo. Muchas aplicaciones software se ven más beneficiadas de estas características antes que de disponer de miles de cpu’s.

Quizás sería bueno otro ranking menos arbitrario y sobre todo más moderno. La respuesta brillante está ahora en el denominado Green500 o clasificación de las máquinas del Top500 pero bajo el dato de potencia de cálculo en función del consumo. Como idea para promocionar que los ordenadores se diseñen reduciendo el gasto en megavatios, parece correcto, pero una vez más no hay mucha seriedad cuando no se considera el aire acondicionado que estas máquinas necesitan y que suelen consumir más que los propios ordenadores. Además se siguen sin auditar los datos.

Es deseable y alentador que la humanidad persiga lo más y lo mejor en todas las áreas de la ciencia, pero en este caso, creo que el software actual aconseja arquitecturas estándares, compensadas y distribuidas entre los usuarios científicos, no Peta-Colosos de Rodas.

Isidro Cano
Lunes, 25 de Febrero 2008



Editado por
Isidro Cano
Eduardo Martínez de la Fe
Ingeniero Superior de Telecomunicación por la ETSIT de Madrid (1977), Isidro Cano es asimismo MBA's en Marketing y en Administración de Empresas por ESEM de Madrid. Con 28 años de experiencia laboral en compañías como Omron, Gould, Commodore, Digital/Compaq, en la actualidad es Director de Supercomputación en HP Iberia. También es autor del libro "El don de la Palabra" (Paraninfo, 2006)


Secciones

Archivo

Noticias sobre supercomputadores


RSS ATOM RSS comment PODCAST Mobile