04.04.2015 Views

Carlos Jaime Barrios Hernandez, PhD.

Carlos Jaime Barrios Hernandez, PhD.

Carlos Jaime Barrios Hernandez, PhD.

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

<strong>Carlos</strong> <strong>Jaime</strong> <strong>Barrios</strong> <strong>Hernandez</strong>, <strong>PhD</strong>.


Alta Disponibilidad<br />

Alto Desempeño<br />

Heterogeneidad<br />

Holístico - Universal<br />

Escalable<br />

Diferentes Niveles de<br />

Usuario<br />

Multi-Administrable<br />

Seguro<br />

Confiable<br />

Evolutivo


Usuarios<br />

GridCol/<br />

EELA<br />

Salas EISI<br />

COMPUTEM<br />

ODE<br />

Sala Redes<br />

CLUSTER BEOWULF GIIB<br />

CLUSTER BEOWULF SIMON<br />

PC’S<br />

Servido<br />

r<br />

Arreglo<br />

GPU<br />

EISI<br />

Porcion<br />

EELA<br />

Sala<br />

Capacitaci<br />

on<br />

GridCol<br />

CLUSTERS Beowulf<br />

Servicios<br />

Salas<br />

CENTIC<br />

COMPUTEM<br />

ODE<br />

CLUSTERS<br />

FrontEn<br />

d LEA<br />

CENTIC<br />

Agosto 2010<br />

Usuario UIS


• Las Universidades hacen investigación de punta<br />

▫ Generan, Consumen y tratan datos<br />

• El tratamiento Masivo e Intensivo de Datos<br />

Científicos requiere Computación de Alto<br />

Rendimiento (HPC)<br />

• La Investigación de Punta es Multidisciplinaria<br />

y no es Aislada<br />

▫ Diferentes Áreas de Conocimiento<br />

▫ Comunidades de Científicos (Locales, Nacionales,<br />

Internacionales)<br />

▫ Relación Industrial (y con entidades de gobierno)


Supercomputación: Sistemas escalables que garantizan el computo<br />

de alto rendimiento<br />

Infraestructura Especifica (Hardware + Redes Avanzadas)<br />

Aplicaciones Especificas (Plataformas, Programas, Códigos)<br />

Uso Especializado (Pero Transparente)<br />

Computación de Alto Rendimiento (HPC): Computo que implica<br />

tratamiento de problemas de gran reto.<br />

Alta demanda de recursos (supercomputación y redes de alta<br />

velocidad)<br />

Alta Complejidad<br />

Sistemas y Metodologías Especificas<br />

Calculo Científico: Computo Especifico para fines científicos<br />

E-Ciencia<br />

Herramientas y Protocolos para que el científico pueda hacer ciencia<br />

sin necesidad de ser experto en computación.


• Tratar Problemas de Gran Reto<br />

▫ En tiempos aceptables o predecibles<br />

• Acceder a recursos específicos remotos<br />

▫ Infraestructura<br />

▫ Instrumentación<br />

▫ Aplicaciones<br />

▫ Datos<br />

• Bajar Costos<br />

• Interacción<br />

• Independencia y Competencia Tecnológica


Soporte para las actividades de los investigadores UIS:<br />

Infraestructura<br />

Administración, Soporte a usuarios<br />

Desarrollo<br />

Adaptación y desarrollo de aplicaciones<br />

Utilización<br />

Acceso<br />

Capacitación y<br />

Diferentes niveles<br />

Soporte externo a la UIS (Industria)<br />

Investigación en Arquitecturas Escalables<br />

Soporte a programas académicos en Postgrado<br />

Especializaciones, maestrías, doctorados


• Laboratorio Supercomputación Luis Eduardo Arias Castellanos<br />

(LEA-CENTIC)<br />

▫ Sala de Formación<br />

▫ Nodos de Acceso e Interconexión Proyectos GISELA y Grid Colombia<br />

▫ Cluster Beowulf (Nodos de Cálculo)<br />

Proyectos en desarrollo UIS<br />

Física de Materia Condensada, Óptica, Dinámica de Fluidos<br />

Computacional, Astrofísica, Química, Biología, Geología…<br />

▫ Sistema de Almacenamiento Masivo Distribuido (~ 1 Tera)<br />

▫ Cálculo Oportunista usando PC’s del CENTIC (30 Nodos)<br />

• Plataformas Interconectadas via GridUIS (Fase 2)


Salas EISI<br />

COMPUTEMO<br />

DE<br />

Sala Redes<br />

CLUSTER BEOWULF GIIB <br />

CLUSTER BEOWULF JSV <br />

Usuarios<br />

GridCol/<br />

EELA<br />

GUANE<br />

Servidor <br />

Arreglo <br />

GPU <br />

EISI <br />

Porcion<br />

EELA<br />

Sala<br />

Capacitacion<br />

GridCo<br />

l<br />

CLUSTERS Beowulf <br />

Guatiguara <br />

Salas CENTIC<br />

COMPUTEMO<br />

DE<br />

CLUSTERS <br />

FrontEnd <br />

LEA <br />

CENTIC <br />

Usuario UIS


• Laboratorio Luis Eduardo Arias (CENTIC)<br />

▫ Cluster IBM 6 Nodos Intel Xeon<br />

▫ Cluster DELL 4 Nodos Intel Xeon<br />

▫ Cluster SUN UltraSPARC 4 Nodos<br />

▫ Cluster ComputeMode Oportunista 92 Nodos DELL Intel<br />

(Disponible solo de 21:00 a 5:00 )<br />

• Grid-UIS-2<br />

▫ Interconecta otras plataformas especificas en la UIS<br />

▫ Acceso a GISELA, GridColombia y GridSCALA<br />

• Centro de Cálculo Científico y Computación de Alto Rendimiento<br />

del Parque Tecnológico de Guatiguará<br />

▫ Sistema Multicomputador (Hibrido) GUANE-1


Propios:<br />

Laboratorio de Supercomputación Luis Eduardo<br />

Arias Castellanos (LEAC). Edificio CENTIC, Campus<br />

Central UIS<br />

Laboratorio/Centro de Computación Científica y de<br />

Alto Rendimiento, Parque Tecnológico de<br />

Guatiguará.<br />

Asociados:<br />

Laboratorio de Redes Jorge Villabona. Escuela de<br />

Ingeniería de Sistemas e Informática, Campus<br />

Central UIS.


Muro de Visualización (En construcción, disponible en<br />

marzo de 2012)


Laboratorio/Centro de Computación Científica y de<br />

Alto Rendimiento, Parque Tecnológico de<br />

Guatiguará.


• Maquina Hibrida basada<br />

en CPUs + GPUs<br />

• Programación Hibrida<br />

▫ Procesamiento<br />

Masivamente Paralelo<br />

con NVIDIA CUDA sobre<br />

NVIDIA Tesla<br />

▫ Procesamiento<br />

Multicomputo (OpenMP,<br />

MPI, otros) sobre Intel.<br />

• Alta Capacidad de<br />

Memoria RAM


• Máxima Eficiencia y Escalabilidad<br />

• Máximo Desempeño por Nodo para tratamiento de alta<br />

granularidad<br />

• Alta Densidad<br />

• Topología de Red Escalable<br />

• Baja Latencia y Comunicación Redundante<br />

• Aceleración de I/O y Transacciones Alta<br />

• Mejor Flops/Watt posible y Eficiencia Energética<br />

• Alimentación Redundante<br />

• Funcionamiento en Condiciones Climáticas Locales (Humedad<br />

10 - 90%, Temperatura Promedio 30°C)


Especificaciones de Hardware<br />

HP Proliant SL390-G7 que permite 8 GPUs por Nodo y es el servidor<br />

mas energeticamente eficiente en el mercado.


Frabricant<br />

Proccesor / chipset<br />

Memmory / Max<br />

Networking<br />

GPU Config<br />

HP<br />

2P Intel Xeon 5640 / Intel 5520 Chipset<br />

104 GB DDR III / Up to 192 GB<br />

1 x QDR IB QSFP<br />

1 x 10GbE SFP+<br />

Dual port 1GbE NIC<br />

8 NVIDIA Tesla M2050 GPUs<br />

Management ILO3 – DCMI 1.0 and IPMI 2.0<br />

Density<br />

Ideal Application<br />

Product URL<br />

2 servers in 4U 1⁄2 W, 4U<br />

Extreme GPU HPC<br />

www.hp.com/servers/proliantsl390s


NVIDIA M2050<br />

Cantidad Inicial 40<br />

Cores<br />

448 CUDA Cores<br />

Memoria GPU 3 GB DDR 5<br />

BW Memoria<br />

Performance<br />

Ideal Application<br />

Product URL<br />

148 Gbytes/Sec<br />

515 Gflops Peak DP<br />

Extreme GPU HPC<br />

http://www.nvidia.com/object/<br />

preconfigured-clusters.html


S.O + Middleware<br />

• S.O. Linux Debian 64Bits Big Memory<br />

Availability<br />

• OAR + Kadeploy (Calendarizador +<br />

Desplegador)<br />

▫ Soporte para cualquier aplicación<br />

▫ Soporte para cualquier S.O. Desplegado<br />

▫ Transparente para cualquier otro middleware<br />

Globus, Unicore, gLite, OSG


Perspectiva 2012 - 2013<br />

• Aumento de 3 nodos<br />

Adicionales ( 24 GPUs<br />

adicionales)<br />

• Aumento de Capacidad de<br />

Almacenamiento de Datos<br />

(128 TB)<br />

• Interconexión con Muro de<br />

Visualización de 32<br />

Pantallas en Guatiguará.


• Actuales<br />

▫ Grid Colombia<br />

▫ GISELA<br />

▫ Centro Nacional de Cálculo Científico, Universidad de Los Andes, Mérida.<br />

▫ Laboratorio de Informática de Grenoble (LIG), Francia<br />

▫ Laboratorio de Informática, Sistemas y Señales (I3S) de Sophia Antipolis, Francia<br />

▫ DEMOCRITOS ICTP (Italia)<br />

▫ Comunidad Latinoamericana de Computo de Alto Rendimiento y Arquitecturas<br />

Escalables (ComHPC-GRID RedCLARA)<br />

• En Tramite (formalización final marzo- abril 2012)<br />

▫ G-RISC Coordinado por el BSC (Barcelona Supercomputing Center)<br />

▫ Nvidia Research Network


Personal Científico Altamente Calificado en<br />

Computación de Alto Rendimiento, Cálculo Científico,<br />

Sistemas Distribuidos y E-Ciencia.<br />

A Nivel de Doctorado<br />

Ingenieros de Soporte a Infraestructura y Soporte a<br />

Usuarios con Competencias Especificas en Computación<br />

de Alto Rendimiento, Cálculo Científico, Sistemas<br />

Distribuidos, Arquitecturas Escalables y E-Ciencia.<br />

Ingenieros de Apoyo al Desarrollo dirigido a<br />

Arquitecturas Escalables.<br />

Programadores/Técnicos Calificados<br />

Estudiantes de Pregrado y Postgrado en Formación.<br />

Consultores y Especialistas Externos Asociados.


1. Implementación de Plataformas e Infraestructuras<br />

Escalables y Distribuidas<br />

Plataformas<br />

Hardware<br />

2. Capacitación y Formación (Continua a diferentes<br />

niveles)<br />

Plataformas, Calculo Científico, áreas afines<br />

Usuarios, Desarrolladores, Administradores<br />

3. Apoyo al Desarrollo de Proyectos en Diferentes Áreas<br />

Grupos de Investigación en diferentes Áreas<br />

Servicios a la Industria<br />

Servicios a entidades de Gobierno


Dario Yesid Pena Ballesterosg, <strong>PhD</strong>.<br />

Vicerrector de Investigación y Extension UIS.<br />

Daniel Sierra Bueno, <strong>PhD</strong>.<br />

Director Proyecto TIC Avanzado para Ciencias e Ingenierías en<br />

el Oriente Colombiano<br />

Luis Núñez de Villavicencio, <strong>PhD</strong>.<br />

Gerente Red CLARA, Director Proyecto GridUIS-2<br />

Jorge Luis Chacon Velazco, <strong>PhD</strong>.<br />

Coordinador Oriente Proyecto GridColombia<br />

<strong>Carlos</strong> <strong>Jaime</strong> <strong>Barrios</strong> Hernández, <strong>PhD</strong>.<br />

Responsable Computación Científica y Computación de Alto<br />

Rendimiento UIS


Gracias por su atención<br />

http://grid.uis.edu.co <br />

UIS, Ciudad Universitaria <br />

CENTIC 4to Piso Supercomputación <br />

Teléfonos: 634000 Ext. 2855 1251


Uso Optimizado de Recursos


Admisión, Localización, Activación<br />

From: http://technet2.microsoft.com


Elementos de Un Cluster<br />

From: http://technet2.microsoft.com


Tareas y Trabajos<br />

From: http://technet2.microsoft.com


Calendarizacion (Un ejemplo)<br />

From: http://technet2.microsoft.com


Tareas Secuenciales y Paralelas<br />

From: http://technet2.microsoft.com


• En términos de infraestructura, una<br />

arquitectura de computo de alto<br />

rendimiento, garantiza:<br />

▫ Disponibilidad (Muy buena<br />

interconectividad)<br />

▫ Estabilidad<br />

▫ Seguridad (Confiabilidad)<br />

▫ Bajo Costo<br />

• Para Garantizar esto se requiere<br />

personal calificado y competente<br />

▫ Técnico (Ingenieros +<br />

Desarrolladores)<br />

▫ Científico (Ingenieros +<br />

Especialistas)


• Calendarizar (Scheduling) es someter los<br />

recursos a una planeacion.<br />

• La Calendarizacion es definida en unidades de<br />

tiempo o en pasos.<br />

• En Computo de Alto Rendimiento,<br />

Calendarizar implica multitareas y<br />

multiprocesos.<br />

• Un Calendarizador es integrado a un<br />

administrador de recursos.


• Disk Scheduling or I/O Scheduling:<br />

▫ Calendarizadores de Disco o de Entrada/Salida.<br />

• Process Scheduling:<br />

▫ Calendarizador de Procesos.<br />

• Hierarchical Scheduling:<br />

▫ Calendarizadores Jerarquicos<br />

• Batch Scheduling:<br />

▫ Calendarizadores a nivel de « batch ».


Image from: Hierarchical scheduling with Ada 2005, Pulido et al.


From MEG Project: http://www-id.imag.fr/~denneuli/MEG/


1. Ingrese usando su cuenta de GridUIS-2<br />

2. Visite la sección: Inicio Usuarios<br />

1. Siga el Taller<br />

2. Observe la sección “Estado de Plataforma”<br />

http://grid.uis.edu.co<br />

carlosjaimebh@computer.org

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!