Máster en Computación Paralela y Distribuida
Maestría
Online
Descripción
-
Tipología
Maestría
-
Metodología
Online
-
Horas lectivas
1500h
-
Duración
12 Meses
-
Inicio
Fechas disponibles
-
Campus online
Sí
-
Clases virtuales
Sí
Hoy en día, la mayoría de softwares y sistemas electrónicos usan de una forma u otra la Computación Paralela o Distribuida. Los smartphones, por ejemplo, han integrado procesadores multinúcleo más potentes a lo largo de los años, mientras que ya es usual que los ordenadores modernos incorporen procesadores multinúcleos. Por otro lado, la Computación Distribuida ha impulsado otras ramas de investigación como el big data, siendo imprescindible en ámbitos como las redes sociales, corporativas o los juegos en línea multijugador. Todo ello refleja la importancia de estas dos formas de programar, por lo que TECH ha creado este completo programa universitario en el que el informático se adentrará en las ventajas y principales usos de la Computación Paralela y Distribuida.
Información importante
Documentación
- 29maestria-tech-computacion-paralela-distribuida-.pdf
Sedes y fechas disponibles
Ubicación
comienzo
comienzo
Información relevante sobre el curso
Objetivos generales
Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados
Objetivos específicos
Módulo 1. Paralelismo en computación paralela y distribuida
Analizar los Componentes de Procesamiento: Procesador o Memoria
Profundizar en la Arquitectura del Paralelismo
Dado que la informática avanza a pasos agigantados y los profesionales dedicados a este campo deben hacer un esfuerzo de actualización continua, TECH ha enfocado este programa en los desarrollos más novedosos ocurridos en Computación Paralela y Distribuida. De este modo, el alumno no solo adquirirá las competencias más avanzadas al respecto, sino que además se instruirá en las múltiples aplicaciones que tienen hoy en día tecnologías como la del blockchain o computación en la nube.
Este Máster Título Propio en Computación Paralela y Distribuida contiene el programa más completo y actualizado del mercado.
Tras la superación de la evaluación, el alumno recibirá por correo postal* con acuse de recibo su correspondiente título de Máster Propio emitido por TECH Universidad Tecnológica.
El título expedido por TECH Universidad Tecnológica expresará la calificación que haya obtenido en el Máster Título Propio, y reunirá los requisitos comúnmente exigidos por las bolsas de trabajo, oposiciones y comités evaluadores de carreras profesionales.
Título: Máster Título Propio en Computación Paralela y Distribuida
Nº Horas Oficiales: 1.500 h.
Nuestra escuela es la primera en el mundo que combina el estudio de casos clínicos con un sistema de aprendizaje 100% online basado en la reiteración, que combina 8 elementos diferentes que suponen una evolución con respecto al simple estudio y análisis de casos. Esta metodología, a la vanguardia pedagógica mundial, se denomina Relearning.
Nuestra escuela es la primera en habla hispana licenciada para emplear este exitoso método, habiendo conseguido en 2015 mejorar los niveles de satisfacción global (calidad docente, calidad de los materiales, estructura del curso, objetivos…) de los estudiantes que finalizan los cursos con respecto a los indicadores de la mejor universidad online en habla hispana.
Recibida su solicitud, un responsable académico del curso le llamará para explicarle todos los detalles del programa, así como el método de inscripción, facilidades de pago y plazos de matrícula.
En primer lugar, necesitas un ordenador (PC o Macintosh), conexión a internet y una cuenta de correo electrónico. Para poder realizar los cursos integramente ON-LINE dispone de las siguientes opciones: Flash - Instalando Flash Player 10 o posterior (http://www.adobe.com/go/getflash), en alguno de los siguientes navegadores web: - Windows: Internet Explorer 6 y posteriores, Firefox 1.x y posteriores, Google Chrome, Opera 9.5 y posteriores - Mac: Safari 3 y posteriores, Firefox 1.x y posteriores, Google Chrome - Linux: Firefox 1.x y posteriores HTML5 - Instalando alguno de los navegadores web: - Google Chrome 14 o posterior sobre Windows o Mac - Safari 5.1 o posterior sobre Mac - Mobile Safari sobre Apple iOS 5.0 o posterior en iPad/iPhone Apple iOS - Articulate Mobile Player; Apple iOS 5.0 o posterior en iPad
Opiniones
Materias
- Definición
- Modelado
- Ingeniería del software
- Desarrollo software
- Ingeniería
- Calidad
- Análisis
- Orientado
- Desarrollo
- Necesidad
Profesores
Martín Olalla Bonal
Director de Arquitectura. Blocknitive
Temario
Módulo 1. Paralelismo en computación paralela y distribuida
1.1. Procesamiento paralelo
1.1.1. Procesamiento paralelo
1.1.2. Procesamiento paralelo en computación. Finalidad
1.1.3. Procesamiento paralelo. Análisis
1.2. Sistema paralelo
1.2.1. El sistema paralelo
1.2.2. Niveles de paralelismo
1.2.3. Composición del sistema paralelo
1.3. Arquitecturas de procesadores
1.3.1. Complejidad del procesador
1.3.2. Arquitectura de procesadores. Modo de operación
1.3.3. Arquitectura de procesadores. Organización de la memoria
1.4. Redes en el procesamiento paralelo
1.4.1. Modo de operación
1.4.2. Estrategia de control
1.4.3. Técnicas de conmutación
1.4.4. Topología
1.5. Arquitecturas paralelas
1.5.1. Algoritmos
1.5.2. Acoplamiento
1.5.3. Comunicación
1.6. Rendimiento de la computación paralela
1.6.1. Evolución del rendimiento
1.6.2. Medidas de performance
1.6.3. Computación Paralela. Casos de estudio
1.7. Taxonomía de Flynn
1.7.1. MIMD: Memoria compartida
1.7.2. MIMD: Memoria distribuida
1.7.3. MIMD: Sistemas híbridos
1.7.4. Flujo de datos
1.8. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.1. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.2. Coarse grain
1.8.3. Fine grain
1.8.4. SMT
1.9. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.1. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.2. Short vector processing
1.9.3. Vector processors
1.10. Formas de Paralelismo: ILP (Instruction Level Paralelism)
1.10.1. Formas de Paralelismo: ILP (Instruction Level Paralelism)
1.10.2. Procesador segmentado
1.10.3. Procesador superescalar
1.10.4. Procesador Very Long Instruction Word (VLIW)
Módulo 2. Descomposición en paralelo en computación paralela y distribuida
2.1. Descomposición en paralelo
2.1.1. Procesamiento paralelo
2.1.2. Arquitecturas
2.1.3. Supercomputadoras
2.2. Hardware paralelo y software paralelo
2.2.1. Sistemas en serie
2.2.2. Hardware paralelo
2.2.3. Software paralelo
2.2.4. Entrada y salida
2.2.5. Rendimiento
2.3. Escalabilidad paralela y problemas de rendimiento recurrentes
2.3.1. Paralelismo
2.3.2. Escalabilidad en paralelo
2.3.3. Problemas recurrentes de rendimiento
2.4. Paralelismo de memoria compartida
2.4.1. Paralelismo de memoria compartida
2.4.2. OpenMP y Pthreads
2.4.3. Paralelismo de memoria compartida. Ejemplos
2.5. Unidad de Procesamiento Gráfico (GPU)
2.5.1. Unidad de Procesamiento Gráfico (GPU)
2.5.2. Arquitectura Unificada de Dispositivos Computacionales (CUDA)
2.5.3. Arquitectura Unificada de Dispositivos Computacionales. Ejemplos
2.6. Sistemas de paso de mensajes
2.6.1. Sistemas de paso de mensajes
2.6.2. MPI. Interfaz de paso de mensajes
2.6.3. Sistemas de paso de mensajes. Ejemplos
2.7. Paralelización híbrida con MPI y OpenMP
2.7.1. La programación híbrida
2.7.2. Modelos de programación MPI/OpenMP
2.7.3. Descomposición y mapeo híbrido
2.8. Computación MapReduce
2.8.1. Hadoop
2.8.2. Otros sistemas de cómputo
2.8.3. Computación Paralela. Ejemplos
2.9. Modelo de actores y procesos reactivos
2.9.1. Modelo de actores
2.9.2. Procesos reactivos
2.9.3. Actores y procesos reactivos. Ejemplos
2.10. Escenarios de Computación Paralela
2.10.1. Procesamiento de audio e imágenes
2.10.2. Estadística/minería de datos
2.10.3. Ordenación paralela
2.10.4. Operaciones matriciales paralelas
Módulo 3. Comunicación y coordinación en sistemas de computación
3.1. Procesos de Computación Paralela y Distribuida
3.1.1. Procesos de Computación Paralela y Distribuida
3.1.2. Procesos e hilos
3.1.3. Virtualización
3.1.4. Clientes y servidores
3.2. Comunicación en Computación Paralela
3.2.1. Computación en Computación Paralela
3.2.2. Protocolos por capas
3.2.3. Comunicación en Computación Paralela. Tipología
3.3. Llamada a procedimiento remoto
3.3.1. Funcionamiento de RPC (Remote Procedure Call)
3.3.2. Paso de parámetros
3.3.3. RPC asíncrono
3.3.4. Procedimiento remoto. Ejemplos
Máster en Computación Paralela y Distribuida