Recomendar este blog Notificar al moderador

SUPERCOMPUTACIÓN

España como novena potencia económica mundial se enfrenta actualmente a un gran reto. Ha de seguir siendo competitiva y aprovechar la innovación y la tecnología para potenciar el crecimiento económico, la creación de empleo y la calidad de vida de los ciudadanos.

Según el informe de la OCDE de 2007 sobre ciencia, tecnología e industria, la innovación y la globalización son los dos principales determinantes de la salud económica de un país ya que ambas inciden directamente sobre la productividad y la creación de empleo.

Es evidente que en un entorno globalizado no se puede concebir la innovación como una actividad local que se desarrolla de forma aislada. En la sociedad de la información y del conocimiento en la que nos encontramos inmersos, las redes de la Investigación y Desarrollo (I+D) y de la innovación son globales y su desarrollo constituye una pieza estratégica en el avance de los países. Por ello, el mundo empresarial y la Administración pública han de esforzarse al máximo para lograr que las autopistas mundiales de la innovación pasen por nuestro país de forma que podamos utilizarlas y convertir a España en un punto de referencia también en innovación.

En este sentido, las multinacionales que realizan actividades de I+D son de vital importancia debido a que son uno de los ejes fundamentales de esas autopistas mundiales de la innovación. Por sus especiales características y organización estas empresas potencian el desarrollo de las redes globales de innovación, pero a su vez repercuten en el desarrollo de la innovación local, ya que se genera un caldo de cultivo que propicia la creación de compañías locales con un fuerte componente innovador, e incluso, en algunos casos, dando lugar a clusters.

No cabe duda de que el eje fundamental de la competitividad en nuestro país está en la localización de actividades de alto valor añadido, sustituyendo los modelos de negocio y las tecnologías que van quedando obsoletas. Y este es un camino que no tiene retorno.

España cuenta con unas características que la hacen muy atractiva para las empresas como son, un entorno empresarial abierto, un marco político y jurídico estable, la creatividad y capacitación de sus profesionales, su calidad de vida.



Muestra de que España cuenta con aspectos que hacen posible el establecimiento de centros de I+D, incluso compitiendo con otras localizaciones que a priori podría pensarse que son más interesantes, es el hecho de que siete grandes multinacionales líderes en sus respectivos sectores y de diferentes procedencias geográficas, cuentan con centros de I+D punteros en nuestro país. Se trata de Alstom, Arcelor Mittal, Ericsson, Hero, Hewlett-Packard, Sony y ThyssenKrupp Elevator que conjuntamente han creado la Fundación Innovación España cuya misión principal es crear un clima de negocios favorable a la inversión internacional en I+D+i en nuestro país, apoyándose en la experiencia propia de los patronos. Estas siete empresas facturan en España más de 10.000 millones de euros, cuentan con más de 30.000 empleados y en sus centros de I+D ubicados en España se están desarrollando algunos de los productos más revolucionarios e innovadores que saldrán al mercado en los próximos años. Estas compañías cuentan con profesionales altamente cualificados dedicados a actividades de I+D capaces de generar ideas que satisfagan necesidades futuras. Las siete multinacionales son un ejemplo de cómo es posible establecer y mantener actividades de alto valor añadido con relevancia en el ámbito internacional y gran éxito dentro de organizaciones globales. Pero además, estas sedes en España tienen un gran atractivo a la hora de atraer talento de fuera de nuestras fronteras.

Este entorno favorable se ve enormemente favorecido por la colaboración Empresa-Universidad que, aunque tiene todavía margen de mejora, está avanzando por buen camino. Es necesario conseguir una mayor accesibilidad a los centros de I+D en las universidades, y que éstas tengan más presentes a las empresas en su desarrollo, y sobre todo, una formación más orientada a permitir que la contratación de profesionales sea eficiente. En este sentido, las siete multinacionales que integran la Fundación Innovación España cuentan con importantes acuerdos en forma de cátedras, becas y otras fórmulas interesantes de colaboración, que permiten un intercambio de conocimiento de gran ayuda para conseguir los objetivos marcados.

La Administración está realizando enormes esfuerzos por crear el ambiente adecuado para que la inversión privada en I+D sea cada vez mayor, a través de ayudas de diversa índole. Es aquí también donde las compañías queremos aportar nuestra experiencia para que este clima sea cada vez más favorable a la implantación de actividad innovadora en nuestro país. Es necesario que el “triángulo virtuoso” empresa-universidad-administración funcione al más alto nivel para que España sea conocida como uno de los principales países generadores de actividades I+D y de innovación tecnológica.


La Fundación I+E Innovación España es una entidad sin ánimo de lucro promovida por multinacionales líderes en los sectores que representan. Esta Fundación compuesta por Alstom, Arcelor Mittal, Ericsson, Hero, Hewlett-Packard, Sony y ThyssenKrupp Elevator (ES/PBB) nace con el objetivo de poner de relieve el papel de las multinacionales en el desarrollo de la I+D+i a nivel local. Para ello promoverá la imagen de España como lugar idóneo para la ubicación de actividad en materia de I+D sirviéndose de la experiencia propia de los patronos, que cuentan con importantes centros de investigación en nuestro país con responsabilidad internacional.

Isidro Cano
Jueves, 12 de Febrero 2009

La difusión mediática de la nanotecnología como una nueva disciplina capaz de revolucionar el mundo industrial no es algo nuevo. Ya hay iniciativas desde hace más de una década. En 1995, David Packard de la familia Packard de HP, fundó un departamento dentro de los HP labs orientado a la búsqueda de los límites físicos de la materia. Se llama QSR Quantum Science Research y en él, los ingenieros investigadores se dedican a fabricar estructuras nanométricas y explorar sus propiedades. Su interesantísimo trabajo integra varias disciplinas de la ingeniería y de la física avanzada y tiene entre otros alicientes el replanteamiento de las leyes fundamentales que nos enseñaron en la escuela.

Entre sus proyectos se encuentran los desarrollos de dispositivos ópticos integrados en chips de silicio y también los nuevos nanoconectores internos de los semiconductores. Ambos nuevos componentes permitirán reducir las latencias entre procesadores y aumentar los anchos de banda, es decir, hacer que las cpu’s corran mucho más que ahora sin aumentar el consumo ni el paralelismo. Es decir, desarrollando una gran creatividad en nuevos planteamientos.

La informática basada en la física cuántica está lejos de dejar indiferente a cualquiera. La idea es tan simple, como desarrollar toda una nueva tecnología informática hardware basada en elementos físicos tamaño molecular. En este nanomundo, las leyes físicas bajo las que se comportan los distintos elementos son las de la física cuántica y de ahí el nombre de ordenador cuántico y de la multitud de siglas sobre la tecnología quántica que ya aparecen en muchas publicaciones.

En el libro Programming the Universe del científico americano Seth Lloyd, gran experto en la materia (de hecho, es el constructor de un ordenador cuántico en el MIT) se plasma la conclusión de que el Universo es en realidad un gigantesco ordenador cuántico con un software que establece los acontecimientos cosmológicos y una unidad de información, el qubit, puede tener más de los dos estados tradicionales 0 y 1. Es decir, la informática cuántica sería un reflejo del mundo real.

Se trata de crear una nueva tecnología que supere a la actual, alcanzando altas cotas de velocidad de cálculo y de capacidad de almacenamiento. Se estima en más de treinta años para lograrlo pero hasta entonces ya hay algunas ideas interesantes como la de construir detectores de un fotón simple que permitan desarrollar nanoestructuras ópticas como base de procesadores cuánticos que puedan incorporarse a los PC’s tradicionales como componentes activos de muy alto rendimiento.

La tarea no es fácil. El problema del alto nivel de ruido cuántico generado por los conversores electro-ópticos se podría resolver por medio de elementos ópticos no lineales como buffers, desplazadores de fase y hasta conmutadores cuya eficacia es de más de un millón de veces los convencionales. Se trabaja en el diseño de puertas lógicas para uno o dos qubits y en otros dispositivos propios de la ciencia ficción.

Los costes actuales de los elementos ópticos son prohibitivos, pero parece que nuevos materiales fruto de la nanotecnología podrían solventar el problema. Además de esta línea de investigación, hay otras como la electrónica molecular o los dispositivos de electrón simple, en fin todo un nuevo campo muy amplio encaminado a que la ley de Moore siga vigente en las próximas décadas.

QSR (Quantum Science Research) puede ser visitado en www.hpl.hp.com/research/qsr en donde hay presentaciones, publicaciones y gran cantidad de información. También los premios y honores recibidos por brillantes compañeros de los HP labs. Cualquier comentario o aportación es bienvenido.


Isidro Cano
Miércoles, 14 de Enero 2009

Una vez iniciado el siglo XXI, los centros de cálculo orientados al cálculo científico presentan unas características muy diferentes no tanto en su diseño y configuración, como en su estrategia, es decir, en su modelo de negocio y orientación hacia el mundo de la investigación científica.

Los países occidentales orientan sus políticas a potenciar la investigación y la innovación para generar un alto valor generador de empleo de calidad. La humanidad requiere importantes avances en el conocimiento científico que permitan encontrar soluciones en climatología, recursos hidráulicos, energías alternativas, medicina, biología y seguridad; sin olvidar los requerimientos de las empresas en el desarrollo de la ingeniería civil, la electrónica, la mecánica y las comunicaciones.

Esencialmente, los problemas de los investigadores actuales que requieren el servicio de una informática de cálculo, radican en conseguir facilidad de acceso, capacidad de gran almacenamiento de datos, alta velocidad de ejecución de trabajos, interactividad para modificar los parámetros, visualización de modelos muy complejos, disponibilidad asegurada del servicio, herramientas software estándares y abiertas, soporte humano para el desarrollo de rutinas y aplicaciones específicas, colaboración y compartición de conocimientos a escala global y financiación sostenida. Es decir, una larga lista de deseos por otra parte indispensables, para que puedan dedicarse a abordar grandes retos sin preocuparse de la infraestructura de cálculo.

La iniciativa pública para implantar Centros de Supercomputación se orienta principalmente a desarrollar una nueva generación de profesionales y empresas en el ámbito local, que ejerzan actividades alrededor de la Ciencia y la Tecnología con miras a conseguir una sociedad de mayor nivel intelectual y por tanto con un futuro más esperanzador. Los usuarios son por tanto, las empresas necesitadas de soporte informático de cálculo y las Universidades y Centros de Investigación públicos.

Los ciclos de retorno de la inversión en los proyectos de tecnología en la empresa, permiten una facturación por servicios informáticos que sostengan los gastos del Centro de Supercomputación en gran medida. Sin embargo, los proyectos en Ciencias puras solo son viables con una financiación proveniente de la administración pública, ya que supondrán avances importantes para la sociedad a muy largo plazo.

Los nuevos Centros de Supercomputación están pensados para admitir muchos usuarios de diversa índole, con formas simples de acceso y sin conocimientos informáticos avanzados. Por tanto, la infraestructura debe ser modular, flexible, basada en estándares, siempre disponible, con canales de comunicación de alta velocidad, en ambientes seguros tolerantes a fallos y a desastres, con capacidad de crecimiento de forma sencilla, diseñados para optimizar el consumo energético y con una gran biblioteca de herramientas software sobre los distintos sistemas operativos actuales.

Además deben contar con una estructura de administradores informáticos, especialistas en lenguajes de programación y en redes que ayuden a los investigadores y les descarguen de tener que aprender informática para poder dedicarse a su faceta profesional.

Por otro lado, se debe de disponer de un comité de arbitraje que asigne prioridades a los distintos proyectos y que promueva la relación internacional en redes GRID y en la colaboración en proyectos de ámbito global. Dicho comité debe poseer criterio para actuar con rigor y eficacia en función de las necesidades y objetivos de la comunidad.

La ubicación física de los nuevos Centros de Cálculo dentro de los campus universitarios supone aprovechar la experiencia y sabiduría de los mayores expertos en todas las ramas de la Ciencia en la formación de este comité. También permite generar sinergias con la comunidad académica para localizar a los mejores especialistas y ofrecer una gran oportunidad profesional. La Universidad puede además aportar servicios generales en administración, recursos humanos, seguridad, mantenimiento y logística que reducen los costes generales del Centro de Cálculo, así los últimos grandes Centros instalados en Europa han sido implantados en las Universidades de Karlruhe, Linkoping, Tromso, Santiago de Compostela, Barcelona, etc…

Alguna amarga experiencia ha habido en España, que nos ha enseñado como un Centro de Supercomputación de prestigio en la década de los 90, caía en el ostracismo por estar físicamente apartado del ámbito universitario, perdiéndose casi toda la inversión en infraestructura y el liderazgo en las políticas de investigación de la región.

Los Nuevos Centros de Supercomputación son entidades vivas con una renovación tecnológica completa en plazos de cuatro a cinco años. Las necesidades siempre crecientes de los investigadores y la evolución del hardware hacia elementos más productivos con menor consumo y menor mantenimiento, obligan a una actualización que mantenga los requerimientos exigidos de los usuarios y que permitan abordar proyectos a largo plazo. Existen estimaciones de crecimientos exponenciales en la capacidad de proceso y almacenamiento que auguran grandes posibilidades de abordar desafíos investigadores hasta ahora solo en los sueños de los científicos.

La nanotecnología, la proteomica, la astrofísica, la simulación y muchas otras áreas podrán dar grandes pasos adelante. So podrán realizar predicciones climatológicas a largo plazo y con alta precisión y fiabilidad, se podrá conocer el comportamiento de los volcanes y predecir movimientos telúricos, se podrán desarrollar medicamentos que modifiquen la estructura genética del enfermo, se podrá fabricar productos con nuevos materiales más resistentes, ligeros y flexibles, se podrá conocer el origen del Universo y de la Vida. Todo ello permitirá generar riqueza intelectual y económica a la vez que supondrá un gran beneficio a la raza humana.


Isidro Cano

Isidro Cano
Martes, 23 de Septiembre 2008

Artículos

En la situación actual del HPC, donde los cluster de pequeñas máquinas se imponen de forma rotunda, resulta una necesidad casi asfixiante disponer de la suficiente memoria por nodo de cálculo.

En los pasillos de los grandes centros de cálculo y las universidades el clamor por más memoria se está haciendo oír tan fuerte como el de más Gigaflops.

Muchos administradores de centros de HPC empiezan a estar preocupados por las repetidas quejas de usuarios que ven morir largos proceso por la escasez de memoria en los nodos.

Un buen ejemplo de esta situación son los geofísicos, que se ven obligados a interpretar grandes cantidades de datos en tiempo real, en la acuciante búsqueda de nuevos recursos naturales.

Además de mucha memoria los usuarios de grandes trabajos demandan a sus administradores de sistemas que fallos en el hardware no den al traste con semanas de iteraciones. Es decir se busca, aunque a veces no se dice, un alto grado de disponibilidad. Y es aquí donde sistemas más robustos, usados en los entornos críticos de procesos de negocio, y con capacidad para albergar cientos o miles de Gigabytes de memoria se convierten en los SuperNodos de Clusters de Cálculo.

Estos SuperClusters de máquinas de memoria compartida, no se caracterizan por el número de sus nodos sino por las capacidades de cada uno de ellos. Lo que les permite realizar retos vedados para el resto de los Clusters. En esta familia de soluciones de HPC el procesador Itanium es el que sin lugar a dudas domina la manada.

Otro factor que se alía con este tipo de máquinas es la adición de más núcleos de proceso por pastilla de silicio, está tendencia a la que es imposible oponerse o tan siquiera rechistar está cambiado el modelo de programación puro por paso de mensajes,( MPI), por un modelo de programación híbrido basados en hebras de programación dentro de cada nodo (OpenMP), y paso de mensajes ente los nodos. Y es precisamente esta manera de programar la que también se adapta a los potentes nodos Itanium cargados de memoria.

Además y por descontado las aplicaciones programadas en OpenMP deseosas de acceder al mayor número de procesadores compartiendo la mayor cantidad de memoria, serán siempre unas grandes beneficiarias de estos sistemas.

Una mayor facilidad en la gestión inherente a esta especie ayuda a su crecimiento demográfico, y hoy en día es norma, en los grandes centros de proceso de datos científico y técnicos, ver juntos a Clusters muy densos y efectivos en coste de adquisición, y a Clusters de máquinas de memoria compartida habilitadores de nuevos y mayores retos con un interesante coste de adquisición.

La necesidad de Clusters dotados de mucha memoria compartida es una importante necesidad y gran aspiración de la ciencia en España. Esta inquietud se ve refleja en conversaciones con nuestros químicos, geólogos, astrónomos, ingenieros , …. Y es una excelente noticia saber que muy importantes centros de investigación y desarrollo de nuestro país ya cuentan o contarán en breve con esta tecnología capaz de derribar barreras en nombre de nuestra ciencia.
Iñaki Eiguren
Jueves, 3 de Abril 2008


El software actual aconseja arquitecturas estándares, compensadas y distribuidas entre los usuarios científicos, no Peta-Colosos de Rodas



Los grandes superordenadores crecen en potencia de cálculo en una carrera exponencial que verá alcanzar el petaflop en este año 2008, es decir, la clasificación Top500 que ordena las 500 máquinas más potentes del mundo, verá posiblemente este record en su próxima edición en el mes de Junio. 1 Petaflop significa realizar 1000 billones de operaciones por segundo en coma flotante. Actualmente la máquina más potente supera los 0,4 Petaflops.

Alcanzar esa potencia se conseguirá con una granja de miles de servidores que ponen sus procesadores a calcular en paralelo, de forma que multiplicando las operaciones que realiza cada uno por segundo, por el número de ellos, nos dará la bonita cifra esperada.

Podría pensarse que gracias a esta altísima velocidad de cálculo, podremos resolver tareas tan complejas como simular el planeta Tierra o conocer el origen del Universo en detalle, sin embargo, los programas de ordenador son una serie de instrucciones que se realizan secuencialmente y la paralelización de tareas o instrucciones tienen un límite muy inferior.

En la actualidad, se considera el tope en 10.000 procesadores, los que pueden trabajar en paralelo para ejecutar el programa que permite el máximo paralelismo. La máquina que llegue al Petaflop tendrá un mínimo de 500.000 procesadores. Parece por tanto que no se empleará en su totalidad para un mismo programa sino que será troceada para atender cientos de proyectos diferentes a la vez.

¿Es megalomanía o desconocimiento de esta situación, lo que mueve a los responsables políticos, financieros y técnicos a emplear tantos recursos en algo de dudosa necesidad? ¿No sería más interesante reforzar la investigación invirtiendo en recursos distribuidos en cada región, según las necesidades locales? Quizás las redes GRID para compartir y colaborar puedan suponen una alternativa más interesante.

Un Top dudoso

El Top500, en su carrera desenfrenada apoyada por el desarrollo informático, hace que el primero de la lista quede fuera de ella en unos seis o siete años. Asusta pensar en la obsolescencia producida en activos de coste tan elevado. No olvidemos que la mayoría de los grandes superordenadores se financian con dinero público.

Por otro lado, la forma de realizar el ranking es ejecutando el programa Linpack por parte de los dueños de cada máquina, sin una auditoría seria sobre los resultados y muchas veces simplemente fiándose el Top500, de estimaciones teóricas. De hecho aparecen máquinas que aún no están instaladas. Esta falta de rigor científico no parece que se corresponda con el prestigio alcanzado por este listado.

Es tan popular que alguna institución científica española de mucha fama llegó a plantear en las plicas de un concurso público para la adjudicación de un superordenador, que la empresa fabricante se debería comprometer a añadir el hardware necesario para dicha máquina estuviese en el Top500 en los 5 años siguientes a su instalación.

Linpack es un programa de puro cálculo pero no contempla el troughput, es decir, la capacidad multitarea para atender muchos programas y atender a muchos usuarios. Solo se potencia disponer de muchos procesadores, pero no se considera la cantidad de memoria o la velocidad de las redes o un almacenamiento ágil y masivo. Muchas aplicaciones software se ven más beneficiadas de estas características antes que de disponer de miles de cpu’s.

Quizás sería bueno otro ranking menos arbitrario y sobre todo más moderno. La respuesta brillante está ahora en el denominado Green500 o clasificación de las máquinas del Top500 pero bajo el dato de potencia de cálculo en función del consumo. Como idea para promocionar que los ordenadores se diseñen reduciendo el gasto en megavatios, parece correcto, pero una vez más no hay mucha seriedad cuando no se considera el aire acondicionado que estas máquinas necesitan y que suelen consumir más que los propios ordenadores. Además se siguen sin auditar los datos.

Es deseable y alentador que la humanidad persiga lo más y lo mejor en todas las áreas de la ciencia, pero en este caso, creo que el software actual aconseja arquitecturas estándares, compensadas y distribuidas entre los usuarios científicos, no Peta-Colosos de Rodas.
Isidro Cano
Lunes, 25 de Febrero 2008


Al igual que en el mundo del motor, la informática es un sector que necesita un banco de pruebas en donde se lleven a cabo experiencias reales muy exigentes. La Supercomputación es el tejido ideal para ello dado que supone la ejecución de complejos programas de cálculo científico que requieren de las mayores prestaciones en informática.



El sector de la supercomputación, también llamado cálculo científico o HPC (high performance computing) abarca los centros de proceso de datos tanto públicos como privados y que dan servicio a entidades investigadoras, Universidades y proyectos de iniciativa privada.

Es un segmento de mercado de pequeño valor porcentual respecto a toda la informática, pero es de importancia capital para los fabricantes de hardware y software. La Supercomputación tiene un valor crítico y estratégico. Los avances en la supercomputación de hoy se convertirán en avances de la informática comercial del mañana.

Centrándonos en las tecnologías de supercomputación, se crea un ciclo continuo de innovación que permite la evolución de las tecnologías de la información. En las últimas décadas, las arquitecturas de servidores y redes así como el empleo de Internet han sido previamente empleados y optimizados en HPC y su empleo masivo ha llegado posteriormente con el éxito conocido de todos.

Actualmente se emplean los llamados Superordenadores en casi todas las áreas investigación científica, en meteorología, exploración de hidrocarburos, defensa e industria automovilística y aeroespacial. Pero poco a poco se extiende el ámbito a otras aplicaciones, por ejemplo, recientemente las entidades dedicadas al mercado de capitales también emplean estas supermáquinas para analizar el comportamiento de productos financieros.

Muchas empresas y organismos públicos se ven influenciadas en mayor o menor medida por este segmento de la tecnología informática. A raíz de avances informáticos se han llegado incluso a crear nuevos subsectores empresariales como el de la Biotecnología que congrega empresas de todo el mundo en torno a la investigación en genética y proteomica, llevados a cabo por superordenadores o redes internacionales de cálculo bioinformático.

Las tendencias tecnológicas de este sector se centran en la compartición de recursos informáticos. Dado lo elevado de las inversiones necesarias en infraestructuras (los centros actuales contienen miles y decenas de miles de procesadores) se intenta interconectar los CPD’s entre sí en las denominadas GRID o redes de intercambio de servicios de computación.

Además se implantan ordenadores estándares (siempre más económicos y fáciles de mantener) en los llamados clusters o granjas de servidores, que corren normalmente con software abierto sobre sistema operativo LINUX, ampliamente conocido por los profesionales del sector y con costes muy bajos. Con estos sistemas informáticos se abordan los retos de crecimiento continuo (escalabilidad) así como la flexibilidad y manejabilidad que se requieren para adaptarse a los distintos proyectos de investigación actuales.

Aunque los ordenadores actuales son muy rápidos y potentes, manejando fluidamente grandes volúmenes de datos a través de redes de comunicaciones de última generación, la realidad es que aún queda mucho por mejorar puesto que los científicos abordan desafíos hasta ahora impensables, el llamado “gran challenge application” o aplicaciones software para las cuales todavía no se ha construido el superordenador capaz de soportarlo. Ello obliga a la industria informática y de telecomunicaciones a una continua innovación y a grandes inversiones en nuevos materiales y dispositivos que al final beneficiarán a toda la comunidad de usuarios informáticos.

Grandes fabricantes como HP ponen en marcha programas de colaboración con entidades científicas de todo el mundo, con financiación cruzada y con transferencia de tecnología de forma que se puedan abordar retos muy significativos. En España, proyectos como ORIGENES, destinado a desvelar el origen de la vida, o iniciativas en BioInformática y Proteomica así como en ciencias medioambientales, son un ejemplo de los acuerdos llevados a cabo con centros de investigación públicos y en donde participan científicos españoles con ingenieros de los laboratorios de la corporación de la multinacional informática.

España ha conquistado en los últimos años un papel mucho más importante que en el pasado, dentro de los rankings de superordenadores en activo, teniendo ahora una infraestructura de cálculo que impulsa incluso proyectos de la empresa privada con recursos locales. Es fundamental la inversión en I+D para no quedarnos en la cola del mundo civilizado, es fundamental por tanto disponer también de algunos buenos F1 informáticos.


Isidro Cano. Director de Supercomputación HP España
Isidro Cano
Lunes, 6 de Agosto 2007


Durante años científicos de todo el mundo han estado uniendo sus ordenadores para conseguir la potencia de cálculo necesaria para luchar contra el SIDA, simular terremotos, conocer el origen del universo, y hacer frente a otros retos de la ciencia. Por otro camino los responsables de los departamentos informáticos de empresas o instituciones, sin sospechar su convergencia con los científicos, han estado pidiendo a los fabricantes de soluciones comerciales una creciente reducción en los costes de propiedad de las mismas, junto con una mayor capacidad de respuesta al cambio.



Ambos senderos han terminado por encontrarse en lo que llamamos en HP el modelo “Adaptive Enterprise”, en donde la empresa y las tecnologías de la información están sincronizadas para responder a los cambios con agilidad. En el momento presente estamos desarrollando las tecnologías abiertas para los “Grids” al servicio de los ciudadanos y de sus negocios, que además sean capaces de soportar entornos de la máxima criticidad. Desde Hewlett-Packard contribuimos a la creación de los nuevos estándares, y no a la de productos propietarios, ya que creemos que el “Grid” es el futuro y será para todos.

El “Grid” es un impulsor de la empresa adaptada al cambio. Los servicios de “IT” son concebidos como servicios potentes a la vez que flexibles, con la agilidad de cambiar en línea con las prioridades de la organización. La promesa de la computación “Grid” permite que todos los recursos-servidores, impresoras, almacenamiento, PCs, dispositivos de red, y aplicaciones- estén disponibles donde y cuando sean más necesarios. Los “Grids” permiten suministrar las aplicaciones y asignar las capacidades necesarias entre grupos de trabajo geográficamente dispersos según cambien sus necesidades. El beneficio claro es un uso más eficiente de los recursos, un mejor manejo en los picos de la demanda de los mismos, así como la colaboración global segura entre grupos extendidos que crucen las fronteras organizativas.

Al final de este camino los servicios informáticos serán entendidos con la misma filosofía que los servicios de gas, de electricidad , o de agua. Esta tecnología nos convertirá en meros consumidores que no tienen porqué conocer el origen, distribución, localización, y mantenimiento de los mismos. De hecho la palabra “Grid” viene del nombre en ingles para la red de distribución de energía eléctrica, en un claro paradigma establecido por sus propios padres Ian Foster, Carl Kesselman (Ian Foster and Carl Kesselman, editors, “The GRID: Blueprint for a New Computing Infrastructure” (Morgan-Kaufmann Publishers, SF, 1999) 677 pp. ISBN 1-55860-8).

El ámbito actual de actuación de la tecnología “Grid” son los entornos de computación distribuidos a gran escala. Controla y coordina el uso y reparto de los activos informáticos dentro de organizaciones virtuales, dinámicas, y extendidas. Quiero hacer hincapié en la palabra “dinámicas” ya que la capacidad de tratar con un universo en continua transformación es lo que diferencia estas técnicas de las que ya existen para compartir datos y procesos. El “Grid” es por tanto una infraestructura software que facilita compartir dinámicamente los recursos a través de estándares abiertos de un modo seguro, flexible, y consistente. Los “Web Services” se utilizan para presentar los recursos al “Grid”. El “Grid” y los “Web Services” son estándares que convergen en una comunidad de desarrolladores que pueden caminar juntos sobre una base común.

Los “Grids” permiten a la administración pública y a las empresas hacer más cosas con menos, desplegar rápidamente recursos para nuevos proyectos, mejorar la respuesta a los usuarios y el tiempo de puesta en el mercado de nuevos productos. El “Grid” tiene la potencialidad de resolver problemas reales de negocio por medio de la simplificación del acceso global a los servicios informáticos. Actualmente están siendo utilizados con acierto en empresas como las aeroespaciales, del automóvil, las de biotecnología, y de servicios financieros.

Aplicaciones

Las tecnologías “Grid“no han estado listas para su despliegue completo en la administración y los negocios. Debido a varios obstáculos complejos entre los que yo destacaría: la convergencia de los estándares de infraestructura subyacentes, las cuestiones de seguridad y gestión, y las relativas a definición, despliegue, y manejo de los servicios de aplicaciones habilitados para el “Grid”.

Las aplicaciones científicas tradicionales del “Grid” se ejecutan en un tiempo determinado, a optimizar en lo posible, y pueden ajustarse a su procesamiento por lotes. Pero las nuevas soluciones para los “Grids” empresariales deben ejecutarse de forma continua durante largos períodos de tiempo. Por ejemplo las bases de datos corporativas, o el comercio electrónico, requieren de la máxima fiabilidad, seguridad, supervisión, contabilidad, etc....

HP está totalmente comprometida con las tecnologías innovadoras, y en ofrecer soluciones vitales para los negocios y los ciudadanos que les supongan mejoras significativas. Por ello está dedicando considerables recursos a llevar los beneficios del “Grid” a la empresa mediante el desarrollo de los estándares junto con instituciones científicas y otras corporaciones.

HP es un activo partícipe en el “Global Grid Forum” (GGF). Este organismo ha supervisado la creación de la arquitectura orientada a servicios “Open Grid Services Architecture” (OGSA), que se propone como la infraestructura para los sistemas y aplicaciones que requieren la integración y manejo de servicios dentro de organizaciones virtuales distribuidas. OGSA está construida sobre los “Web Services” y la tecnología “Grid”. Los ingenieros de HP son coautores de especificaciones que definen como tratar las interacciones entre clientes, servicios, recursos dinámicos de “IT”, usando “Web Services” como es le caso de “Web Services Resource Framework” (WSRF). HP es también co-fundador y miembro de la “Enterprise Grid Alliance” (EGA), que busca resolver la problemática de las empresas.

HP aporta una pieza fundamental que habilita la expansión de esta tecnología al mundo comercial a través de su plataforma de gestión “HP OpenView”, capaz de gestionar la información procedente de las muchas fuentes del mundo “Grid”. Utiliza estándares abiertos de la industria para integrar la información de gestión. Maneja pro-activamente los “Web Services” encaminándolos dinámicamente de manera muy robusta. HP OpenView Automation Manager es capaz de proveer de recursos entre diferentes aplicaciones de acuerdo con sus necesidades y prioridades. Este software trabaja en entornos heterogéneos, y contiene una herramienta que crea un modelo visual de las operaciones de negocio, de esto modo se obtiene un cuadro completo de la infraestructura tecnológica que permite la automatización de las tareas de mantenimiento.

Otro problema a resolver ha sido la falta de un modo ampliamente aceptado de desplegar y configurar el Hw y Sw sobre los que opera el “Grid” empresarial, para atender a esta demanda los “HP Labs” han construido un marco de trabajo llamado “SmartFrog”( Smart Framework for Object Groups). El mencionado marco proporciona las reglas para la configuración, ejecución y manejo de los recursos a través de todo su ciclo de vida.

Permite a los administradores configurar fácilmente los recursos sobre el entorno distribuido que constituye el “Grid”. HP ha puesto“SmartFrog” a disposición del mundo abierto bajo licencia de código abierto “GNU Lesser General Public License” (LGPL).
Los componentes básicos de “SmartFrog” incluyen: Un lenguaje de descripción de una aplicación; Un motor de flujos de trabajo que despliega la aplicación sobre la infraestructura y un conjunto de elementos componentes de la aplicación.

HP proporciona sistemas HP-UX, Linux, y Tru64 UNIX, que están preparados para el entorno “Grid”, a través de la implantación del popular “middleware” de “Grid”, “Globus Toolkit”, en estas plataformas. Además se ha realizado sobre ellas un profundo trabajo de pruebas y afinamiento del citado software, con fin de conseguir la mayor satisfacción de los usuarios. HP es cofundador y patrocinador del “Globus Consortium”, que soporta el desarrollo de “Globus”, y cuyo objetivo principal es el de proporcionar los protocolos, “APIs” y “SDKs” que permitan construir la infraestructura “Grid” y las aplicaciones que van sobre él. Cabe destacar aquí que con la disponibilidad del “Globus Toolkit Version 4” basado sobre “Web Services” se avanza en el camino que adentra el “Grid” en los negocios.

HP se ha comprometido ha utilizar los estándares que habilitan el “Grid” en todos sus productos desde los más pequeños “handhelds”, impresoras, y PCs a los más poderosos sistemas de almacenamiento y superordenadores. Todos ellos estarán conectados al “Grid”, y servirán sus recursos sobre él. Los laboratorios de HP desarrollan el “Grid Lite” que con unos requerimientos reducidos soporta a los consumidores individuales, los “appliances”, sensores, redes en el hogar, imagen, impresión, nuevos elementos de media, y movilidad en general.

Red de almacenamiento

Otro avance es este campo viene de la mano de HP StorageWorks Grid, una red de almacenamiento virtual comunitaria. La unidad funcional de la que se nutre es la “celda de almacenamiento”. Se gestiona como si fuera un único sistema de almacenamiento, y puede escalar tanto añadiendo más disco a las celdas existentes como añadiendo nuevas celdas. También es posible consolidar varias celdas en una más potente.

También colabora con los fabricantes de software independientes de modo que el software de “Grid” hecho por terceros este perfectamente soportado por nuestras plataformas. HP está trabajando en iniciativas de este entorno con socios como Altair Engineering, Avaki, Axceleon, DataSynapse, GridSystems, GridXpert, NICE, Oracle®, Platform Computing, Prospero, United Devices, y otros con el fin de ayudar a introducirlo en la administración y en las empresas.

La “Web Services Management Framework” (WSMF) es una arquitectura lógica, también desarrollada por HP, para el manejo de todo tipo de recursos. Sus componentes básicos son: “WS (Web Services) Events” es un protocolo y formato que notifican cuando un recurso ha cambiado; “WSMF- Foundation” es la especificación de cómo usar los “Web Services” para manejar las capacidades de los recursos; “WSMF-WebServicesModel” es la definición del modelo de información para manejar “Web Services”.

La “Organization for the Advancement of Structured Information Standards” (OASIS), utiliza esta arquitectura en su estándar “Web Services Distributed Management” (WSDM) que ofrece una aproximación común al manejo de todos los componentes de “IT”.Los ingenieros e investigadores de HP están trabajando con otros miembros de OASIS/WSDM para hacer WSDM compatible con el “Grid” integrándola con los estándares WSRF ya mencionados en este artículo. Además HP tiene un concierto con “Globus Alliance” y la “Apache Software Foundation”, y junto con ellas ha desarrollado implantaciones fiables de los estándares WSRF y WSDM.

La herramienta “Grid Resource Topology Designer” sirve para planificar y diseñar una infraestructura informática. Se trata de un diagrama en “Visio”que puede generar una salida XML, RSL (“Resource Specification Language” –Grid estándar para la descripción de recursos), FML (Farm Markup Language – usado en las herramientas HP para el “Utlility DataCenter”).

HP Consulting & Integration Services (C&I) trabaja en colaboración con clientes y “partners” para planificar, implantar y manejar soluciones de “Grid Computing” que habiliten el”Adaptive Enterprise”. Sus expertos valoran las necesidades de forma individualizada, evalúan el retorno de la inversión y diseñan e implantan soluciones óptimas. HP ofrece una variedad de servicios enfocados al”Grid”, incluyendo un servicio de orientación , o un “workshop” de asesoramiento y valoración de estas tecnologías, o servicios de transferencia de tecnología “Grid” que pueden permitir crear centros de competencia dentro del propio cliente. Además de los servicios clásicos de diseño y desarrollo, así como los de optimización. Todos ellos pensados para la introducción del “Grid” en las empresas.
.
HP participa activamente en proyectos de “Grid”. Un buen ejemplo de este espíritu es la red de cooperación denominada “HP Collaboration and Competency Network” (HP CCN). La misma representa un foro para facilitar la colaboración dentro de un marco extendido. Con la finalidad de promover la innovación, el descubrimiento, y también para compartir las competencias y habilidades entre HP, sus socios, y sus clientes.

HP ha sido la primera empresa comercial en ser incluida en el “Large Hadron Collider (LHC) Computing Grid”, que procesará y distribuirá los datos generados por la próxima generación de infraestructura experimental del CERN. Se prevé que en 2007 el acelerador de partículas “LHC” sea el aparato científico mayor del mundo. HP además fue seleccionada por la “Southern Partnership for Advanced Computational Infrastructures” (SPACI), para ser el principal socio tecnológico con el fin de establecer un entorno de tecnologías de la información de I+D preparado para el “Grid”. Cabe remarcar que se trata de la primera de su clase en toda Europa.

HP trabaja en varios “Grids” relacionados con las ciencias de la vida. Algunos de ellos son: “Open Bioinformatics Grid” (OBIGrid) ; “Bio-GRID” (Warsaw Univ, Poland); “HP Life Sciences Grid”. También trabaja en otros muchos proyectos como los del Pittsburgh Supercomputing Center, GridLab, WestGrid, OurGrid, GriddLeS, y el Georgia Institute of Technology. Colabora con BAE SYSTEMS ATC, IHPC Singapore, Cardiff University, University of Wales, Swansea en un “Grid” para el diseño aeroespacial avanzado.

El uso de la tecnología “Grid” junto con las actuales redes de satélites y los conocimientos que organismos como NASA tienen de nuestro planeta, están permitiendo una mejor explotación de nuestros recursos naturales.

Otro ejemplo de colaboración exitosa en el campo de la tecnología “Grid” es el de DreamWorks y HP. En donde han trabajado muy de cerca en el desarrollo de tecnologías innovadoras para “rendering” de animación distribuida para la popular película estrenada en 2004 “Shrek 2”. El “Utility Rendering Service” (URS) de HP ha dado a DreamWorks la flexibilidad de manejar enormes cantidades de potencia de cálculo, con el objetivo de proveer la animación de gran calidad necesaria durante el acabado final de la película. HP URS ha procesado más de medio millón de “frames” individuales, permitiendo cubrir los picos de trabajo mediante el uso de recursos comunitarios según el modelo de “Grid Computing”.

Primera oleada

La primera oleada “Grid” ha venido de la mano de los centros de investigación, universidades y algunas empresas tecnológicas, y ha sido motivada por las crecientes necesidades de cálculo de la actualidad. La segunda oleada comienza ya con los “Intra Grid” comerciales que buscan aprovechar al máximo los recursos existentes dentro de la propia organización. El objetivo de hp es el desarrollo de herramientas que permitan implantar y gestionar los “Intra Grid”, tarea que de otra forma no resultaría fácil a las empresas actuales y que a la postre está resultando un freno para estas soluciones a pesar de sus evidentes beneficios.

El gran reto vendrá más tarde con los “Grids” a través de múltiples instituciones en las que se habrán de romper los principales inhibidores como es el de la seguridad y la deslocalización de los datos, por ejemplo los “Partner Grids” que se despliegan a través de múltiples empresas para perseguir beneficios comunes. Por último, los “Service Grids” soportados por los “xSPs” y que harán realidad la promesa de ofrecer servicios distribuidos, heterogéneos, dinámicos y cambiantes mediante el modelo de la distribución de agua, gas ó electricidad.

Si el objetivo de negocio o de servicio al ciudadano es crear un entorno en el cual se pueda compartir recursos de forma global y colaborar con los colaboradores y proveedores, la computación “Grid” puede responder a todas esas necesidades.


Ignacio Eiguren. Consultor de supercomputación en HP Iberia
Isidro Cano
Lunes, 6 de Agosto 2007



Editado por
Isidro Cano
Eduardo Martínez de la Fe
Ingeniero Superior de Telecomunicación por la ETSIT de Madrid (1977), Isidro Cano es asimismo MBA's en Marketing y en Administración de Empresas por ESEM de Madrid. Con 28 años de experiencia laboral en compañías como Omron, Gould, Commodore, Digital/Compaq, en la actualidad es Director de Supercomputación en HP Iberia. También es autor del libro "El don de la Palabra" (Paraninfo, 2006)


Secciones

Archivo

Noticias sobre supercomputadores


RSS ATOM RSS comment PODCAST Mobile