Especialización en Computación Paralela Avanzada

Especialización

Online

$ 1.195 IVA inc.

Descripción

  • Tipología

    Especialización

  • Metodología

    Online

  • Horas lectivas

    450h

  • Duración

    6 Meses

  • Inicio

    Fechas disponibles

  • Campus online

  • Clases virtuales

La computación paralela se ha desarrollado tanto en los últimos años que una comprensión básica de la misma ya no es suficiente. Si el informático busca elevar su potencial y nivel laboral debe profundizar aún más en la materia, conociendo el sistema de intercambio de información entre los procesos de diferentes máquinas y midiendo el desempeño de los algoritmos paralelos para detectar eficazmente aquellos aspectos que penalizan su rendimiento. Con esta premisa de profundización se presenta este programa universitario, que ahonda en las
cuestiones más avanzadas de la computación paralela con una perspectiva tanto innovadora como práctica. Una opción académica imprescindible para todo informático que busque un impulso de calidad en su trayectoria profesional.

Información importante

Documentación

  • 81especializacion-computacion-paralela-avanzada.pdf

Sedes y fechas disponibles

Ubicación

comienzo

Online

comienzo

Fechas disponiblesInscripciones abiertas

Información relevante sobre el curso

Objetivos generales

Š Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
Š Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados

Objetivos específicos

Módulo 1. Comunicación y coordinación en sistemas de computación
Š Analizar las diferentes arquitecturas y modelos de los sistemas distribuidos
Š Determinar las características de los sistemas paralelos y distribuidos

Este Experto Universitario tiene como objetivo proporcionar al informático las herramientas y conocimientos más avanzados en cuanto a Computación Paralela. De este modo, el egresado
mejorará ampliamente sus posibilidades de tener mejores cargos en proyectos que requieran una aproximación técnica muy específica, tales como aquellos relacionados con el big data, el blockchain o el clima. Gracias a la profundidad alcanzada en el temario los alumnos podrán empezar a mejorar sus competencias incluso antes de finalizar el programa.

Este Experto Universitario en Computación Paralela Avanzada contiene el programa más completo y actualizado del mercado.

Tras la superación de la evaluacion, los alu recibirán por correo postal* con acuse de recibo su correspondiente título de Experto Universitario emitido por TECH Universidad Tecnológica.

El título expedido por TECH Universidad Tecnológica expresará la calificación que hayan obtenido en el Experto Universitario, y reunirá los requisitos comúnmente exigidos por las bolsas de trabajo, oposiciones y comités evaluadores carreras
profesionales.

Título: Experto Universitario en Computación Paralela Avanzada
N.º horas oficiales: 450 h.

Nuestra escuela es la primera en el mundo que combina el estudio de casos clínicos con un sistema de aprendizaje 100% online basado en la reiteración, que combina 8 elementos diferentes que suponen una evolución con respecto al simple estudio y análisis de casos. Esta metodología, a la vanguardia pedagógica mundial, se denomina Relearning.

Nuestra escuela es la primera en habla hispana licenciada para emplear este exitoso método, habiendo conseguido en 2015 mejorar los niveles de satisfacción global (calidad docente, calidad de los materiales, estructura del curso, objetivos…) de los estudiantes que finalizan los cursos con respecto a los indicadores de la mejor universidad online en habla hispana.

Recibida su solicitud, un responsable académico del curso le llamará para explicarle todos los detalles del programa, así como el método de inscripción, facilidades de pago y plazos de matrícula.

En primer lugar, necesitas un ordenador (PC o Macintosh), conexión a internet y una cuenta de correo electrónico. Para poder realizar los cursos integramente ON-LINE dispone de las siguientes opciones: Flash - Instalando Flash Player 10 o posterior (http://www.adobe.com/go/getflash), en alguno de los siguientes navegadores web: - Windows: Internet Explorer 6 y posteriores, Firefox 1.x y posteriores, Google Chrome, Opera 9.5 y posteriores - Mac: Safari 3 y posteriores, Firefox 1.x y posteriores, Google Chrome - Linux: Firefox 1.x y posteriores HTML5 - Instalando alguno de los navegadores web: - Google Chrome 14 o posterior sobre Windows o Mac - Safari 5.1 o posterior sobre Mac - Mobile Safari sobre Apple iOS 5.0 o posterior en iPad/iPhone Apple iOS - Articulate Mobile Player; Apple iOS 5.0 o posterior en iPad.

Preguntas & Respuestas

Añade tu pregunta

Nuestros asesores y otros usuarios podrán responderte

¿Quién quieres que te responda?

Déjanos tus datos para recibir respuesta

Sólo publicaremos tu nombre y pregunta

Opiniones

Materias

  • Comunicación
  • Programación
  • Computación
  • Algoritmos
  • Calidad

Profesores

Martín Olalla Bonal

Martín Olalla Bonal

Director de Arquitectura. Blocknitive

Temario

Módulo 1. Comunicación y coordinación en sistemas de computación

1.1. Procesos de Computación Paralela y Distribuida

1.1.1. Procesos de Computación Paralela y Distribuida
1.1.2. Procesos e hilos
1.1.3. Virtualización
1.1.4. Clientes y servidores

1.2. Comunicación en computación paralela

1.2.1. Computación en computación paralela
1.2.2. Protocolos por capas
1.2.3. Comunicación en computación paralela. Tipología

1.3. Llamada a procedimiento remoto

1.3.1. Funcionamiento de RPC (Remote Procedure Call)
1.3.2. Paso de parámetros
1.3.3. RPC asíncrono
1.3.4. Procedimiento remoto. Ejemplos

1.4. Comunicación orientada a mensajes

1.4.1. Comunicación transitoria orientada a mensajes
1.4.2. Comunicación persistente orientada a mensajes
1.4.3. Comunicación orientada a mensajes. Ejemplos

1.5. Comunicación orientada a flujos

1.5.1. Soporte para medios continuos
1.5.2. Flujos y calidad de servicio
1.5.3. Sincronización de flujos
1.5.4. Comunicación orientada a flujos. Ejemplos

1.6. Comunicación de multidifusión

1.6.1. Multidifusión a nivel de aplicación
1.6.2. Difusión de datos basada en rumores
1.6.3. Comunicación de multidifusión. Ejemplos

1.7. Otros tipos de comunicación

1.7.1. Invocación de métodos remotos
1.7.2. Servicios web / SOA / REST
1.7.3. Notificación de eventos
1.7.4. Agentes móviles

1.8. Servicio de nombres

1.8.1. Servicios de nombres en computación
1.8.2. Servicios de nombres y sistema de dominio de nombres
1.8.3. Servicios de directorio

1.9. Sincronización

1.9.1. Sincronización de relojes
1.9.2. Relojes lógicos, exclusión mutua y posicionamiento global de los nodos
1.9.3. Elección de algoritmos

1.10. Comunicación. Coordinación y acuerdo

1.10.1. Coordinación y acuerdo
1.10.2. Coordinación y acuerdo. Consenso y problemas
1.10.3. Comunicación y coordinación. Actualidad

Módulo 2. Análisis y programación de algoritmos paralelos

2.1. Algoritmos paralelos

2.1.1. Descomposición de problemas
2.1.2. Dependencias de datos
2.1.3. Paralelismo implícito y explícito

2.2. Paradigmas de programación paralela

2.2.1. Programación paralela con memoria compartida
2.2.2. Programación paralela con memoria distribuida
2.2.3. Programación paralela híbrida
2.2.4. Computación heterogénea - CPU + GPU
2.2.5. Computación cuántica. Nuevos modelos de programación con paralelismo implícito

2.3. Programación paralela con memoria compartida

2.3.1. Modelos de programación paralela con memoria compartida
2.3.2. Algoritmos paralelos con memoria compartida
2.3.3. Librerías para programación paralela con memoria compartida

2.4. OpenMP

2.4.1. OpenMP
2.4.2. Ejecución y depuración de programas con OpenMP
2.4.3. Algoritmos paralelos con memoria compartida en OpenMP

2.5. Programación paralela por paso de mensajes

2.5.1. Primitivas de paso de mensajes
2.5.2. Operaciones de comunicación y computación colectiva
2.5.3. Algoritmos paralelos por paso de mensajes
2.5.4. Librerías para programación paralela con paso de mensajes

2.6. Message Passing Interface (MPI)

2.6.1. Message Passing Interface (MPI)
2.6.2. Ejecución y depuración de programas con MPI
2.6.3. Algoritmos paralelos por paso de mensajes con MPI

2.7. Programación paralela híbrida

2.7.1. Programación paralela híbrida
2.7.2. Ejecución y depuración de programas paralelos híbridos
2.7.3. Algoritmos paralelos híbridos MPI-OpenMP

2.8. Programación paralela con computación heterogénea

2.8.1. Programación paralela con computación heterogénea
2.8.2. CPU vs. GPU
2.8.3. Algoritmos paralelos con computación heterogénea

2.9. OpenCL y CUDA

2.9.1. OpenCL vs. CUDA
2.9.2. Ejecución y depuración de programas paralelos con computación heterogénea
2.9.3. Algoritmos paralelos con computación heterogénea

2.10. Diseño de algoritmos paralelos

2.10.1. Diseño de algoritmos paralelos
2.10.2. Problema y contexto
2.10.3. Paralelización automática vs. Paralelización manual
2.10.4. Particionamiento del problema
2.10.5. Comunicaciones en computación

Módulo 3. Desempeño en paralelo

3.1. Desempeño de algoritmos paralelos

3.1.1. Ley de Ahmdal
3.1.2. Ley de Gustarfson
3.1.3. Métricas de desempeño y escalabilidad de algoritmos paralelos

3.2. Comparativa de algoritmos paralelos

3.2.1. Benchmarking
3.2.2. Análisis matemático de algoritmos paralelos
3.2.3. Análisis asintótico de algoritmos paralelos

3.3. Restricciones de los recursos hardware

3.3.1. Memoria
3.3.2. Procesamiento
3.3.3. Comunicaciones
3.3.4. Particionamiento dinámico de recursos

3.4. Desempeño de programas paralelos con memoria compartida

3.4.1. División óptima en tareas
3.4.2. Afinidad de Threads
3.4.3. Paralelismo SIMD
3.4.4. Programas paralelos con memoria compartida. Ejemplos

3.5. Desempeño de programas paralelos por paso de mensajes

3.5.1. Desempeño de programas paralelos por paso de mensajes
3.5.2. Optimización de comunicaciones en MPI
3.5.3. Control de afinidad y balanceo de carga
3.5.4. I/O paralela
3.5.5. Programas paralelos por paso de mensajes. Ejemplos

Especialización en Computación Paralela Avanzada

$ 1.195 IVA inc.