Computación distribuida y paralela

Algunas aplicaciones tradicionales incluyen la predicción del tiempo, las simulaciones aerodinámicas, el estudio de los terremotos y tsunamis o la secuenciación del genoma humano.

Nuevas propuestas de computación destinadas a resolver los grandes problemas de nuestra sociedad

.

El campus de Leganés de la Universidad Carlos III de Madrid (UC3M) ha acogido uno de los principales congresos mundiales relacionados con la computación distribuida y en paralelo, que se utilizan en la actualidad para la resolución de problemas en multitud de investigaciones científicas y tecnológicas.

Imagen: Wikipedia

El objetivo del ISPA 2012 (International Symposium on Parallel and Distributed Processing with Applications) del IEEE (Institute of Electrical and Electronics Engineers) es ofrecer un foro de discusión a científicos e ingenieros tanto del sector académico como de la industria para intercambiar experiencias, nuevas ideas, resultados de investigación y aplicaciones en todos los aspectos de la computación paralela y distribuida y sus aplicaciones.

Entre las principales conclusiones del congreso se señaló que se espera alcanzar el primer supercomputador Exascale hacia el año 2018. Dicho supercomputador multiplicará la capacidad de cómputo de los más potentes equipos por 100, siendo capaz de llegar a realizar más de 1015 (mil billones) de operaciones por segundo.

Asimismo, se identificó como uno de los mayores retos de la computación de los próximos años reducir significativamente el consumo energético de los computadores que supone actualmente una parte importante de los presupuestos de la mayor parte de los centros de procesamiento de datos, además de presentar consideraciones de tipo medioambiental.

Otro aspecto destacado en el congreso, según los investigadores, ha sido la necesidad de definir nuevas herramientas para el desarrollo de aplicaciones escalables para las diversas arquitecturas paralelas existentes (desde los grandes centros de supercomputación hasta los computadores de escritorio y dispositivos móviles).

En total han asistido al ISPA 2012 más de 170 personas procedentes de los cinco continentes y 30 países. “Esto puede considerarse un éxito teniendo en cuenta que el comité de programa ha sido muy riguroso y que poco más del 30 por ciento de los trabajos recibidos fueron aceptados”, comentan los organizadores, del Grupo de Arquitectura y Tecnología de Computadores de la UC3M.

Se han presentado medio centenar de trabajos en las líneas principales del congreso y casi otros 50 en los distintos workshops internacionales. Además, se celebró una sesión de posters en las que diversos investigadores presentaron los resultados preliminares de sus investigaciones sobre computación distribuida y paralela.

.

Aplicaciones de computación

El procesamiento en paralelo es una forma de computación que permite que muchos dispositivos de cómputo trabajen simultáneamente para resolver un problema. Tradicionalmente, el paralelismo se ha utilizado en centros de supercomputación para resolver problemas de gran tamaño, pero en la última década su interés se ha extendido por la difusión de los procesadores con múltiples núcleos.

Por su parte, la computación distribuida utiliza un conjunto de computadores independientes que se comunican a través de una red y colaboran para alcanzar una meta común. Probablemente, el sistema distribuido más conocido por todos es la World Wide Web, pero existen otras muchas aplicaciones. Por ejemplo, los sistemas de control de un avión conforman un sistema distribuido en el que los distintos computadores del avión cooperan.

Entre las aplicaciones más recientes de la computación distribuida se encuentra la computación en la nube o Cloud Computing que todos usamos en el acceso a múltiples servicios de internet.

La utilización de estas técnicas se aplica a dominios muy distintos que tienen en común la necesidad de una gran potencia de cómputo. Algunas aplicaciones tradicionales incluyen la predicción del tiempo, las simulaciones aerodinámicas, el estudio de los terremotos y tsunamis o la secuenciación del genoma humano.

“Por ejemplo, en los recientes estudios sobre el bosón de Higgs han tenido un papel central el uso de grandes computadores y las técnicas de procesamiento paralelo”, explica el profesor J. Daniel García, del Grupo de Arquitectura y Tecnología de Computadores de la UC3M.

La computación paralela y distribuida también se usa en el estudio de las interacciones entre proteínas y el modelado de moléculas que tienen una gran relación con el diseño de nuevos fármacos.

Imagen: Wikipedia

Otro ejemplo en el que hacemos uso de la computación paralela es en la realización de tomografía médica por computador (TAC) que se usa en muchos diagnósticos médicos y donde el tiempo necesario para realizar el diagnóstico es muy importante.

El congreso se ha organizado en torno a siete líneas principales de interés: “Algoritmos y Aplicaciones”, “Arquitecturas y Virtualización”, “Middleware y Herramientas”, “Redes”, “Simulaciones y Evaluación del Rendimiento”, “Fiabilidad, Tolerancia a Fallos y Seguridad”, y “Bases de Datos, Minería de datos y Gestión de Datos”.

Además, en paralelo se han realizado otras actividades que incluyen la celebración de seis workshops internacionales de temática muy relacionada con el congreso, cuatro tutoriales y cuatro conferencias invitadas.

Además, han intervenido ponentes muy destacados de los principales centros de investigación a nivel mundial en el contexto de la computación paralela y distribuida, incluyendo grandes centros de supercomputación, así como centros de investigación relacionados con la computación en la nube, como el Barcelona Supercomputing Center/Centro nacional de Supercomputación, Sandia National Labs, Argonnne National Labs, HLRS, etc.

El Grupo de Arquitectura y Tecnología de Computadores de la UC3M que se ha encargado de la organización de este evento se dedica fundamentalmente a la investigación en sistemas paralelos y distribuidos. El grupo tiene una larga trayectoria en el desarrollo de sistemas de ficheros para sistemas paralelos que simplifica la forma en que un gran computador pueda acceder a grandes volúmenes de datos.

Asimismo, el equipo ha desarrollado un simulador para la evaluación de grandes infraestructuras de cómputo y almacenamiento. Otra línea de trabajo es la computación en la nube que se ha aplicado al análisis de redes sociales y a la distribución masiva de datos. Además, el grupo participa en los comités internacionales de normalización de lenguajes de programación donde se están definiendo nuevos modelos de programación, por ejemplo para el lenguaje C++.

También dentro del grupo se ha realizado trabajos en el área de redes de sensores inalámbricos para usar pequeños sensores para la recogida de datos. En colaboración con el grupo Imagen en Instrumentación biomédica de la UC3M se ha trabajado en la mejora de algoritmos de reconstrucción de imagen médica.

Otra aplicación reciente realizada, en colaboración con ADIF es un sistema de monitorización remota de maquinaria ferroviaria que permite saber el estado y posición en que se encuentran las máquinas que realizan reparaciones en la red ferroviaria española.

Dejar comentario

Deja tu comentario
Pon tu nombre aquí