04.04.2015 Views

Carlos Jaime Barrios Hernandez, PhD.

Carlos Jaime Barrios Hernandez, PhD.

Carlos Jaime Barrios Hernandez, PhD.

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Carlos</strong> <strong>Jaime</strong> <strong>Barrios</strong> <strong>Hernandez</strong>, <strong>PhD</strong>.


Alta Disponibilidad<br />

Alto Desempeño<br />

Heterogeneidad<br />

Holístico - Universal<br />

Escalable<br />

Diferentes Niveles de<br />

Usuario<br />

Multi-Administrable<br />

Seguro<br />

Confiable<br />

Evolutivo


Usuarios<br />

GridCol/<br />

EELA<br />

Salas EISI<br />

COMPUTEM<br />

ODE<br />

Sala Redes<br />

CLUSTER BEOWULF GIIB<br />

CLUSTER BEOWULF SIMON<br />

PC’S<br />

Servido<br />

r<br />

Arreglo<br />

GPU<br />

EISI<br />

Porcion<br />

EELA<br />

Sala<br />

Capacitaci<br />

on<br />

GridCol<br />

CLUSTERS Beowulf<br />

Servicios<br />

Salas<br />

CENTIC<br />

COMPUTEM<br />

ODE<br />

CLUSTERS<br />

FrontEn<br />

d LEA<br />

CENTIC<br />

Agosto 2010<br />

Usuario UIS


• Las Universidades hacen investigación de punta<br />

▫ Generan, Consumen y tratan datos<br />

• El tratamiento Masivo e Intensivo de Datos<br />

Científicos requiere Computación de Alto<br />

Rendimiento (HPC)<br />

• La Investigación de Punta es Multidisciplinaria<br />

y no es Aislada<br />

▫ Diferentes Áreas de Conocimiento<br />

▫ Comunidades de Científicos (Locales, Nacionales,<br />

Internacionales)<br />

▫ Relación Industrial (y con entidades de gobierno)


Supercomputación: Sistemas escalables que garantizan el computo<br />

de alto rendimiento<br />

Infraestructura Especifica (Hardware + Redes Avanzadas)<br />

Aplicaciones Especificas (Plataformas, Programas, Códigos)<br />

Uso Especializado (Pero Transparente)<br />

Computación de Alto Rendimiento (HPC): Computo que implica<br />

tratamiento de problemas de gran reto.<br />

Alta demanda de recursos (supercomputación y redes de alta<br />

velocidad)<br />

Alta Complejidad<br />

Sistemas y Metodologías Especificas<br />

Calculo Científico: Computo Especifico para fines científicos<br />

E-Ciencia<br />

Herramientas y Protocolos para que el científico pueda hacer ciencia<br />

sin necesidad de ser experto en computación.


• Tratar Problemas de Gran Reto<br />

▫ En tiempos aceptables o predecibles<br />

• Acceder a recursos específicos remotos<br />

▫ Infraestructura<br />

▫ Instrumentación<br />

▫ Aplicaciones<br />

▫ Datos<br />

• Bajar Costos<br />

• Interacción<br />

• Independencia y Competencia Tecnológica


Soporte para las actividades de los investigadores UIS:<br />

Infraestructura<br />

Administración, Soporte a usuarios<br />

Desarrollo<br />

Adaptación y desarrollo de aplicaciones<br />

Utilización<br />

Acceso<br />

Capacitación y<br />

Diferentes niveles<br />

Soporte externo a la UIS (Industria)<br />

Investigación en Arquitecturas Escalables<br />

Soporte a programas académicos en Postgrado<br />

Especializaciones, maestrías, doctorados


• Laboratorio Supercomputación Luis Eduardo Arias Castellanos<br />

(LEA-CENTIC)<br />

▫ Sala de Formación<br />

▫ Nodos de Acceso e Interconexión Proyectos GISELA y Grid Colombia<br />

▫ Cluster Beowulf (Nodos de Cálculo)<br />

Proyectos en desarrollo UIS<br />

Física de Materia Condensada, Óptica, Dinámica de Fluidos<br />

Computacional, Astrofísica, Química, Biología, Geología…<br />

▫ Sistema de Almacenamiento Masivo Distribuido (~ 1 Tera)<br />

▫ Cálculo Oportunista usando PC’s del CENTIC (30 Nodos)<br />

• Plataformas Interconectadas via GridUIS (Fase 2)


Salas EISI<br />

COMPUTEMO<br />

DE<br />

Sala Redes<br />

CLUSTER BEOWULF GIIB <br />

CLUSTER BEOWULF JSV <br />

Usuarios<br />

GridCol/<br />

EELA<br />

GUANE<br />

Servidor <br />

Arreglo <br />

GPU <br />

EISI <br />

Porcion<br />

EELA<br />

Sala<br />

Capacitacion<br />

GridCo<br />

l<br />

CLUSTERS Beowulf <br />

Guatiguara <br />

Salas CENTIC<br />

COMPUTEMO<br />

DE<br />

CLUSTERS <br />

FrontEnd <br />

LEA <br />

CENTIC <br />

Usuario UIS


• Laboratorio Luis Eduardo Arias (CENTIC)<br />

▫ Cluster IBM 6 Nodos Intel Xeon<br />

▫ Cluster DELL 4 Nodos Intel Xeon<br />

▫ Cluster SUN UltraSPARC 4 Nodos<br />

▫ Cluster ComputeMode Oportunista 92 Nodos DELL Intel<br />

(Disponible solo de 21:00 a 5:00 )<br />

• Grid-UIS-2<br />

▫ Interconecta otras plataformas especificas en la UIS<br />

▫ Acceso a GISELA, GridColombia y GridSCALA<br />

• Centro de Cálculo Científico y Computación de Alto Rendimiento<br />

del Parque Tecnológico de Guatiguará<br />

▫ Sistema Multicomputador (Hibrido) GUANE-1


Propios:<br />

Laboratorio de Supercomputación Luis Eduardo<br />

Arias Castellanos (LEAC). Edificio CENTIC, Campus<br />

Central UIS<br />

Laboratorio/Centro de Computación Científica y de<br />

Alto Rendimiento, Parque Tecnológico de<br />

Guatiguará.<br />

Asociados:<br />

Laboratorio de Redes Jorge Villabona. Escuela de<br />

Ingeniería de Sistemas e Informática, Campus<br />

Central UIS.


Muro de Visualización (En construcción, disponible en<br />

marzo de 2012)


Laboratorio/Centro de Computación Científica y de<br />

Alto Rendimiento, Parque Tecnológico de<br />

Guatiguará.


• Maquina Hibrida basada<br />

en CPUs + GPUs<br />

• Programación Hibrida<br />

▫ Procesamiento<br />

Masivamente Paralelo<br />

con NVIDIA CUDA sobre<br />

NVIDIA Tesla<br />

▫ Procesamiento<br />

Multicomputo (OpenMP,<br />

MPI, otros) sobre Intel.<br />

• Alta Capacidad de<br />

Memoria RAM


• Máxima Eficiencia y Escalabilidad<br />

• Máximo Desempeño por Nodo para tratamiento de alta<br />

granularidad<br />

• Alta Densidad<br />

• Topología de Red Escalable<br />

• Baja Latencia y Comunicación Redundante<br />

• Aceleración de I/O y Transacciones Alta<br />

• Mejor Flops/Watt posible y Eficiencia Energética<br />

• Alimentación Redundante<br />

• Funcionamiento en Condiciones Climáticas Locales (Humedad<br />

10 - 90%, Temperatura Promedio 30°C)


Especificaciones de Hardware<br />

HP Proliant SL390-G7 que permite 8 GPUs por Nodo y es el servidor<br />

mas energeticamente eficiente en el mercado.


Frabricant<br />

Proccesor / chipset<br />

Memmory / Max<br />

Networking<br />

GPU Config<br />

HP<br />

2P Intel Xeon 5640 / Intel 5520 Chipset<br />

104 GB DDR III / Up to 192 GB<br />

1 x QDR IB QSFP<br />

1 x 10GbE SFP+<br />

Dual port 1GbE NIC<br />

8 NVIDIA Tesla M2050 GPUs<br />

Management ILO3 – DCMI 1.0 and IPMI 2.0<br />

Density<br />

Ideal Application<br />

Product URL<br />

2 servers in 4U 1⁄2 W, 4U<br />

Extreme GPU HPC<br />

www.hp.com/servers/proliantsl390s


NVIDIA M2050<br />

Cantidad Inicial 40<br />

Cores<br />

448 CUDA Cores<br />

Memoria GPU 3 GB DDR 5<br />

BW Memoria<br />

Performance<br />

Ideal Application<br />

Product URL<br />

148 Gbytes/Sec<br />

515 Gflops Peak DP<br />

Extreme GPU HPC<br />

http://www.nvidia.com/object/<br />

preconfigured-clusters.html


S.O + Middleware<br />

• S.O. Linux Debian 64Bits Big Memory<br />

Availability<br />

• OAR + Kadeploy (Calendarizador +<br />

Desplegador)<br />

▫ Soporte para cualquier aplicación<br />

▫ Soporte para cualquier S.O. Desplegado<br />

▫ Transparente para cualquier otro middleware<br />

Globus, Unicore, gLite, OSG


Perspectiva 2012 - 2013<br />

• Aumento de 3 nodos<br />

Adicionales ( 24 GPUs<br />

adicionales)<br />

• Aumento de Capacidad de<br />

Almacenamiento de Datos<br />

(128 TB)<br />

• Interconexión con Muro de<br />

Visualización de 32<br />

Pantallas en Guatiguará.


• Actuales<br />

▫ Grid Colombia<br />

▫ GISELA<br />

▫ Centro Nacional de Cálculo Científico, Universidad de Los Andes, Mérida.<br />

▫ Laboratorio de Informática de Grenoble (LIG), Francia<br />

▫ Laboratorio de Informática, Sistemas y Señales (I3S) de Sophia Antipolis, Francia<br />

▫ DEMOCRITOS ICTP (Italia)<br />

▫ Comunidad Latinoamericana de Computo de Alto Rendimiento y Arquitecturas<br />

Escalables (ComHPC-GRID RedCLARA)<br />

• En Tramite (formalización final marzo- abril 2012)<br />

▫ G-RISC Coordinado por el BSC (Barcelona Supercomputing Center)<br />

▫ Nvidia Research Network


Personal Científico Altamente Calificado en<br />

Computación de Alto Rendimiento, Cálculo Científico,<br />

Sistemas Distribuidos y E-Ciencia.<br />

A Nivel de Doctorado<br />

Ingenieros de Soporte a Infraestructura y Soporte a<br />

Usuarios con Competencias Especificas en Computación<br />

de Alto Rendimiento, Cálculo Científico, Sistemas<br />

Distribuidos, Arquitecturas Escalables y E-Ciencia.<br />

Ingenieros de Apoyo al Desarrollo dirigido a<br />

Arquitecturas Escalables.<br />

Programadores/Técnicos Calificados<br />

Estudiantes de Pregrado y Postgrado en Formación.<br />

Consultores y Especialistas Externos Asociados.


1. Implementación de Plataformas e Infraestructuras<br />

Escalables y Distribuidas<br />

Plataformas<br />

Hardware<br />

2. Capacitación y Formación (Continua a diferentes<br />

niveles)<br />

Plataformas, Calculo Científico, áreas afines<br />

Usuarios, Desarrolladores, Administradores<br />

3. Apoyo al Desarrollo de Proyectos en Diferentes Áreas<br />

Grupos de Investigación en diferentes Áreas<br />

Servicios a la Industria<br />

Servicios a entidades de Gobierno


Dario Yesid Pena Ballesterosg, <strong>PhD</strong>.<br />

Vicerrector de Investigación y Extension UIS.<br />

Daniel Sierra Bueno, <strong>PhD</strong>.<br />

Director Proyecto TIC Avanzado para Ciencias e Ingenierías en<br />

el Oriente Colombiano<br />

Luis Núñez de Villavicencio, <strong>PhD</strong>.<br />

Gerente Red CLARA, Director Proyecto GridUIS-2<br />

Jorge Luis Chacon Velazco, <strong>PhD</strong>.<br />

Coordinador Oriente Proyecto GridColombia<br />

<strong>Carlos</strong> <strong>Jaime</strong> <strong>Barrios</strong> Hernández, <strong>PhD</strong>.<br />

Responsable Computación Científica y Computación de Alto<br />

Rendimiento UIS


Gracias por su atención<br />

http://grid.uis.edu.co <br />

UIS, Ciudad Universitaria <br />

CENTIC 4to Piso Supercomputación <br />

Teléfonos: 634000 Ext. 2855 1251


Uso Optimizado de Recursos


Admisión, Localización, Activación<br />

From: http://technet2.microsoft.com


Elementos de Un Cluster<br />

From: http://technet2.microsoft.com


Tareas y Trabajos<br />

From: http://technet2.microsoft.com


Calendarizacion (Un ejemplo)<br />

From: http://technet2.microsoft.com


Tareas Secuenciales y Paralelas<br />

From: http://technet2.microsoft.com


• En términos de infraestructura, una<br />

arquitectura de computo de alto<br />

rendimiento, garantiza:<br />

▫ Disponibilidad (Muy buena<br />

interconectividad)<br />

▫ Estabilidad<br />

▫ Seguridad (Confiabilidad)<br />

▫ Bajo Costo<br />

• Para Garantizar esto se requiere<br />

personal calificado y competente<br />

▫ Técnico (Ingenieros +<br />

Desarrolladores)<br />

▫ Científico (Ingenieros +<br />

Especialistas)


• Calendarizar (Scheduling) es someter los<br />

recursos a una planeacion.<br />

• La Calendarizacion es definida en unidades de<br />

tiempo o en pasos.<br />

• En Computo de Alto Rendimiento,<br />

Calendarizar implica multitareas y<br />

multiprocesos.<br />

• Un Calendarizador es integrado a un<br />

administrador de recursos.


• Disk Scheduling or I/O Scheduling:<br />

▫ Calendarizadores de Disco o de Entrada/Salida.<br />

• Process Scheduling:<br />

▫ Calendarizador de Procesos.<br />

• Hierarchical Scheduling:<br />

▫ Calendarizadores Jerarquicos<br />

• Batch Scheduling:<br />

▫ Calendarizadores a nivel de « batch ».


Image from: Hierarchical scheduling with Ada 2005, Pulido et al.


From MEG Project: http://www-id.imag.fr/~denneuli/MEG/


1. Ingrese usando su cuenta de GridUIS-2<br />

2. Visite la sección: Inicio Usuarios<br />

1. Siga el Taller<br />

2. Observe la sección “Estado de Plataforma”<br />

http://grid.uis.edu.co<br />

carlosjaimebh@computer.org

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!