Códigos Secuenciales Vs. Paralelos
Códigos Secuenciales Vs. Paralelos Códigos Secuenciales Vs. Paralelos
• MPI es una interfaz de paso de Mensajes – Librería – Trabaja Nativamente con C y Fortran – No es un producto – Escalable – Soportado por Arquitecturas Heterogéneas – Portable – APIs para Cualquier Sistema Operativo – Dirigido a Usuario – Eficiente – Optimiza la comunicación entre los algoritmos – Permite Computación y Comunicación Controlada http://www.mpi-forum.org MPI – Message Passing Interface
• Possible Programming Workflow • Estrategias • Maestro Esclavo • Pipeline • Divide y Conquista MPI Programming Version Secuencial Iden@ricar las tareas y Escoger la estrategia dependencias de Paralelizacion Implementacion con MPI
- Page 1 and 2: Códigos Secuenciales Vs. Paralelos
- Page 3 and 4: Un poco de Arquitectura • Existen
- Page 5 and 6: • Datos Los Problemas Pueden - Po
- Page 7 and 8: • Linealmente • Recursividad
- Page 9 and 10: overhead task overhead task overhea
- Page 11 and 12: Arquitectura de OpenMP • Modelo F
- Page 13 and 14: Pragmas • Una pragma es un direc@
- Page 15 and 16: Variables Compar@das y Variables Pr
- Page 17: Para compilar y ejecutar • Compil
- Page 21 and 22: • Compilación y Ejecución - La
- Page 23 and 24: Ejercicio de Clase • Teniendo en
- Page 25 and 26: Para Entregar Al final De la Clase
• MPI es una interfaz de paso de Mensajes<br />
– Librería<br />
– Trabaja Nativamente con C y Fortran<br />
– No es un producto<br />
– Escalable<br />
– Soportado por Arquitecturas Heterogéneas<br />
– Portable<br />
– APIs para Cualquier Sistema Operativo<br />
– Dirigido a Usuario<br />
– Eficiente<br />
– Optimiza la comunicación entre los algoritmos<br />
– Permite Computación y Comunicación Controlada<br />
http://www.mpi-forum.org<br />
MPI –<br />
Message<br />
Passing<br />
Interface