Carlos Jaime Barrios Hernandez, PhD.
Carlos Jaime Barrios Hernandez, PhD.
Carlos Jaime Barrios Hernandez, PhD.
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
<strong>Carlos</strong> <strong>Jaime</strong> <strong>Barrios</strong> <strong>Hernandez</strong>, <strong>PhD</strong>.
Alta Disponibilidad<br />
Alto Desempeño<br />
Heterogeneidad<br />
Holístico - Universal<br />
Escalable<br />
Diferentes Niveles de<br />
Usuario<br />
Multi-Administrable<br />
Seguro<br />
Confiable<br />
Evolutivo
Usuarios<br />
GridCol/<br />
EELA<br />
Salas EISI<br />
COMPUTEM<br />
ODE<br />
Sala Redes<br />
CLUSTER BEOWULF GIIB<br />
CLUSTER BEOWULF SIMON<br />
PC’S<br />
Servido<br />
r<br />
Arreglo<br />
GPU<br />
EISI<br />
Porcion<br />
EELA<br />
Sala<br />
Capacitaci<br />
on<br />
GridCol<br />
CLUSTERS Beowulf<br />
Servicios<br />
Salas<br />
CENTIC<br />
COMPUTEM<br />
ODE<br />
CLUSTERS<br />
FrontEn<br />
d LEA<br />
CENTIC<br />
Agosto 2010<br />
Usuario UIS
• Las Universidades hacen investigación de punta<br />
▫ Generan, Consumen y tratan datos<br />
• El tratamiento Masivo e Intensivo de Datos<br />
Científicos requiere Computación de Alto<br />
Rendimiento (HPC)<br />
• La Investigación de Punta es Multidisciplinaria<br />
y no es Aislada<br />
▫ Diferentes Áreas de Conocimiento<br />
▫ Comunidades de Científicos (Locales, Nacionales,<br />
Internacionales)<br />
▫ Relación Industrial (y con entidades de gobierno)
Supercomputación: Sistemas escalables que garantizan el computo<br />
de alto rendimiento<br />
Infraestructura Especifica (Hardware + Redes Avanzadas)<br />
Aplicaciones Especificas (Plataformas, Programas, Códigos)<br />
Uso Especializado (Pero Transparente)<br />
Computación de Alto Rendimiento (HPC): Computo que implica<br />
tratamiento de problemas de gran reto.<br />
Alta demanda de recursos (supercomputación y redes de alta<br />
velocidad)<br />
Alta Complejidad<br />
Sistemas y Metodologías Especificas<br />
Calculo Científico: Computo Especifico para fines científicos<br />
E-Ciencia<br />
Herramientas y Protocolos para que el científico pueda hacer ciencia<br />
sin necesidad de ser experto en computación.
• Tratar Problemas de Gran Reto<br />
▫ En tiempos aceptables o predecibles<br />
• Acceder a recursos específicos remotos<br />
▫ Infraestructura<br />
▫ Instrumentación<br />
▫ Aplicaciones<br />
▫ Datos<br />
• Bajar Costos<br />
• Interacción<br />
• Independencia y Competencia Tecnológica
Soporte para las actividades de los investigadores UIS:<br />
Infraestructura<br />
Administración, Soporte a usuarios<br />
Desarrollo<br />
Adaptación y desarrollo de aplicaciones<br />
Utilización<br />
Acceso<br />
Capacitación y<br />
Diferentes niveles<br />
Soporte externo a la UIS (Industria)<br />
Investigación en Arquitecturas Escalables<br />
Soporte a programas académicos en Postgrado<br />
Especializaciones, maestrías, doctorados
• Laboratorio Supercomputación Luis Eduardo Arias Castellanos<br />
(LEA-CENTIC)<br />
▫ Sala de Formación<br />
▫ Nodos de Acceso e Interconexión Proyectos GISELA y Grid Colombia<br />
▫ Cluster Beowulf (Nodos de Cálculo)<br />
Proyectos en desarrollo UIS<br />
Física de Materia Condensada, Óptica, Dinámica de Fluidos<br />
Computacional, Astrofísica, Química, Biología, Geología…<br />
▫ Sistema de Almacenamiento Masivo Distribuido (~ 1 Tera)<br />
▫ Cálculo Oportunista usando PC’s del CENTIC (30 Nodos)<br />
• Plataformas Interconectadas via GridUIS (Fase 2)
Salas EISI<br />
COMPUTEMO<br />
DE<br />
Sala Redes<br />
CLUSTER BEOWULF GIIB <br />
CLUSTER BEOWULF JSV <br />
Usuarios<br />
GridCol/<br />
EELA<br />
GUANE<br />
Servidor <br />
Arreglo <br />
GPU <br />
EISI <br />
Porcion<br />
EELA<br />
Sala<br />
Capacitacion<br />
GridCo<br />
l<br />
CLUSTERS Beowulf <br />
Guatiguara <br />
Salas CENTIC<br />
COMPUTEMO<br />
DE<br />
CLUSTERS <br />
FrontEnd <br />
LEA <br />
CENTIC <br />
Usuario UIS
• Laboratorio Luis Eduardo Arias (CENTIC)<br />
▫ Cluster IBM 6 Nodos Intel Xeon<br />
▫ Cluster DELL 4 Nodos Intel Xeon<br />
▫ Cluster SUN UltraSPARC 4 Nodos<br />
▫ Cluster ComputeMode Oportunista 92 Nodos DELL Intel<br />
(Disponible solo de 21:00 a 5:00 )<br />
• Grid-UIS-2<br />
▫ Interconecta otras plataformas especificas en la UIS<br />
▫ Acceso a GISELA, GridColombia y GridSCALA<br />
• Centro de Cálculo Científico y Computación de Alto Rendimiento<br />
del Parque Tecnológico de Guatiguará<br />
▫ Sistema Multicomputador (Hibrido) GUANE-1
Propios:<br />
Laboratorio de Supercomputación Luis Eduardo<br />
Arias Castellanos (LEAC). Edificio CENTIC, Campus<br />
Central UIS<br />
Laboratorio/Centro de Computación Científica y de<br />
Alto Rendimiento, Parque Tecnológico de<br />
Guatiguará.<br />
Asociados:<br />
Laboratorio de Redes Jorge Villabona. Escuela de<br />
Ingeniería de Sistemas e Informática, Campus<br />
Central UIS.
Muro de Visualización (En construcción, disponible en<br />
marzo de 2012)
Laboratorio/Centro de Computación Científica y de<br />
Alto Rendimiento, Parque Tecnológico de<br />
Guatiguará.
• Maquina Hibrida basada<br />
en CPUs + GPUs<br />
• Programación Hibrida<br />
▫ Procesamiento<br />
Masivamente Paralelo<br />
con NVIDIA CUDA sobre<br />
NVIDIA Tesla<br />
▫ Procesamiento<br />
Multicomputo (OpenMP,<br />
MPI, otros) sobre Intel.<br />
• Alta Capacidad de<br />
Memoria RAM
• Máxima Eficiencia y Escalabilidad<br />
• Máximo Desempeño por Nodo para tratamiento de alta<br />
granularidad<br />
• Alta Densidad<br />
• Topología de Red Escalable<br />
• Baja Latencia y Comunicación Redundante<br />
• Aceleración de I/O y Transacciones Alta<br />
• Mejor Flops/Watt posible y Eficiencia Energética<br />
• Alimentación Redundante<br />
• Funcionamiento en Condiciones Climáticas Locales (Humedad<br />
10 - 90%, Temperatura Promedio 30°C)
Especificaciones de Hardware<br />
HP Proliant SL390-G7 que permite 8 GPUs por Nodo y es el servidor<br />
mas energeticamente eficiente en el mercado.
Frabricant<br />
Proccesor / chipset<br />
Memmory / Max<br />
Networking<br />
GPU Config<br />
HP<br />
2P Intel Xeon 5640 / Intel 5520 Chipset<br />
104 GB DDR III / Up to 192 GB<br />
1 x QDR IB QSFP<br />
1 x 10GbE SFP+<br />
Dual port 1GbE NIC<br />
8 NVIDIA Tesla M2050 GPUs<br />
Management ILO3 – DCMI 1.0 and IPMI 2.0<br />
Density<br />
Ideal Application<br />
Product URL<br />
2 servers in 4U 1⁄2 W, 4U<br />
Extreme GPU HPC<br />
www.hp.com/servers/proliantsl390s
NVIDIA M2050<br />
Cantidad Inicial 40<br />
Cores<br />
448 CUDA Cores<br />
Memoria GPU 3 GB DDR 5<br />
BW Memoria<br />
Performance<br />
Ideal Application<br />
Product URL<br />
148 Gbytes/Sec<br />
515 Gflops Peak DP<br />
Extreme GPU HPC<br />
http://www.nvidia.com/object/<br />
preconfigured-clusters.html
S.O + Middleware<br />
• S.O. Linux Debian 64Bits Big Memory<br />
Availability<br />
• OAR + Kadeploy (Calendarizador +<br />
Desplegador)<br />
▫ Soporte para cualquier aplicación<br />
▫ Soporte para cualquier S.O. Desplegado<br />
▫ Transparente para cualquier otro middleware<br />
Globus, Unicore, gLite, OSG
Perspectiva 2012 - 2013<br />
• Aumento de 3 nodos<br />
Adicionales ( 24 GPUs<br />
adicionales)<br />
• Aumento de Capacidad de<br />
Almacenamiento de Datos<br />
(128 TB)<br />
• Interconexión con Muro de<br />
Visualización de 32<br />
Pantallas en Guatiguará.
• Actuales<br />
▫ Grid Colombia<br />
▫ GISELA<br />
▫ Centro Nacional de Cálculo Científico, Universidad de Los Andes, Mérida.<br />
▫ Laboratorio de Informática de Grenoble (LIG), Francia<br />
▫ Laboratorio de Informática, Sistemas y Señales (I3S) de Sophia Antipolis, Francia<br />
▫ DEMOCRITOS ICTP (Italia)<br />
▫ Comunidad Latinoamericana de Computo de Alto Rendimiento y Arquitecturas<br />
Escalables (ComHPC-GRID RedCLARA)<br />
• En Tramite (formalización final marzo- abril 2012)<br />
▫ G-RISC Coordinado por el BSC (Barcelona Supercomputing Center)<br />
▫ Nvidia Research Network
Personal Científico Altamente Calificado en<br />
Computación de Alto Rendimiento, Cálculo Científico,<br />
Sistemas Distribuidos y E-Ciencia.<br />
A Nivel de Doctorado<br />
Ingenieros de Soporte a Infraestructura y Soporte a<br />
Usuarios con Competencias Especificas en Computación<br />
de Alto Rendimiento, Cálculo Científico, Sistemas<br />
Distribuidos, Arquitecturas Escalables y E-Ciencia.<br />
Ingenieros de Apoyo al Desarrollo dirigido a<br />
Arquitecturas Escalables.<br />
Programadores/Técnicos Calificados<br />
Estudiantes de Pregrado y Postgrado en Formación.<br />
Consultores y Especialistas Externos Asociados.
1. Implementación de Plataformas e Infraestructuras<br />
Escalables y Distribuidas<br />
Plataformas<br />
Hardware<br />
2. Capacitación y Formación (Continua a diferentes<br />
niveles)<br />
Plataformas, Calculo Científico, áreas afines<br />
Usuarios, Desarrolladores, Administradores<br />
3. Apoyo al Desarrollo de Proyectos en Diferentes Áreas<br />
Grupos de Investigación en diferentes Áreas<br />
Servicios a la Industria<br />
Servicios a entidades de Gobierno
Dario Yesid Pena Ballesterosg, <strong>PhD</strong>.<br />
Vicerrector de Investigación y Extension UIS.<br />
Daniel Sierra Bueno, <strong>PhD</strong>.<br />
Director Proyecto TIC Avanzado para Ciencias e Ingenierías en<br />
el Oriente Colombiano<br />
Luis Núñez de Villavicencio, <strong>PhD</strong>.<br />
Gerente Red CLARA, Director Proyecto GridUIS-2<br />
Jorge Luis Chacon Velazco, <strong>PhD</strong>.<br />
Coordinador Oriente Proyecto GridColombia<br />
<strong>Carlos</strong> <strong>Jaime</strong> <strong>Barrios</strong> Hernández, <strong>PhD</strong>.<br />
Responsable Computación Científica y Computación de Alto<br />
Rendimiento UIS
Gracias por su atención<br />
http://grid.uis.edu.co <br />
UIS, Ciudad Universitaria <br />
CENTIC 4to Piso Supercomputación <br />
Teléfonos: 634000 Ext. 2855 1251
Uso Optimizado de Recursos
Admisión, Localización, Activación<br />
From: http://technet2.microsoft.com
Elementos de Un Cluster<br />
From: http://technet2.microsoft.com
Tareas y Trabajos<br />
From: http://technet2.microsoft.com
Calendarizacion (Un ejemplo)<br />
From: http://technet2.microsoft.com
Tareas Secuenciales y Paralelas<br />
From: http://technet2.microsoft.com
• En términos de infraestructura, una<br />
arquitectura de computo de alto<br />
rendimiento, garantiza:<br />
▫ Disponibilidad (Muy buena<br />
interconectividad)<br />
▫ Estabilidad<br />
▫ Seguridad (Confiabilidad)<br />
▫ Bajo Costo<br />
• Para Garantizar esto se requiere<br />
personal calificado y competente<br />
▫ Técnico (Ingenieros +<br />
Desarrolladores)<br />
▫ Científico (Ingenieros +<br />
Especialistas)
• Calendarizar (Scheduling) es someter los<br />
recursos a una planeacion.<br />
• La Calendarizacion es definida en unidades de<br />
tiempo o en pasos.<br />
• En Computo de Alto Rendimiento,<br />
Calendarizar implica multitareas y<br />
multiprocesos.<br />
• Un Calendarizador es integrado a un<br />
administrador de recursos.
• Disk Scheduling or I/O Scheduling:<br />
▫ Calendarizadores de Disco o de Entrada/Salida.<br />
• Process Scheduling:<br />
▫ Calendarizador de Procesos.<br />
• Hierarchical Scheduling:<br />
▫ Calendarizadores Jerarquicos<br />
• Batch Scheduling:<br />
▫ Calendarizadores a nivel de « batch ».
Image from: Hierarchical scheduling with Ada 2005, Pulido et al.
From MEG Project: http://www-id.imag.fr/~denneuli/MEG/
1. Ingrese usando su cuenta de GridUIS-2<br />
2. Visite la sección: Inicio Usuarios<br />
1. Siga el Taller<br />
2. Observe la sección “Estado de Plataforma”<br />
http://grid.uis.edu.co<br />
carlosjaimebh@computer.org