Máster en Computación Paralela y Distribuida

Maestría

Online

$ 2.995 IVA inc.

Descripción

  • Tipología

    Maestría

  • Metodología

    Online

  • Horas lectivas

    1500h

  • Duración

    12 Meses

  • Inicio

    Fechas disponibles

  • Campus online

  • Clases virtuales

Hoy en día, la mayoría de softwares y sistemas electrónicos usan de una forma u otra la Computación Paralela o Distribuida. Los smartphones, por ejemplo, han integrado procesadores multinúcleo más potentes a lo largo de los años, mientras que ya es usual que los ordenadores modernos incorporen procesadores multinúcleos. Por otro lado, la Computación Distribuida ha impulsado otras ramas de investigación como el big data, siendo imprescindible en ámbitos como las redes sociales, corporativas o los juegos en línea multijugador. Todo ello refleja la importancia de estas dos formas de programar, por lo que TECH ha creado este completo programa universitario en el que el informático se adentrará en las ventajas y principales usos de la Computación Paralela y Distribuida.

Información importante

Documentación

  • 29maestria-tech-computacion-paralela-distribuida-.pdf

Sedes y fechas disponibles

Ubicación

comienzo

Online

comienzo

Fechas disponiblesInscripciones abiertas

Información relevante sobre el curso

Objetivos generales

Š Analizar lo que ocurre entre los diferentes componentes de la Computación Paralela y Distribuida
Š Medir y comparar su desempeño para analizar el rendimiento del conjunto de componentes utilizados

Objetivos específicos

Módulo 1. Paralelismo en computación paralela y distribuida
Š Analizar los Componentes de Procesamiento: Procesador o Memoria
Š Profundizar en la Arquitectura del Paralelismo

Dado que la informática avanza a pasos agigantados y los profesionales dedicados a este campo deben hacer un esfuerzo de actualización continua, TECH ha enfocado este programa en los desarrollos más novedosos ocurridos en Computación Paralela y Distribuida. De este modo, el alumno no solo adquirirá las competencias más avanzadas al respecto, sino que además se instruirá en las múltiples aplicaciones que tienen hoy en día tecnologías como la del blockchain o computación en la nube.

Este Máster Título Propio en Computación Paralela y Distribuida contiene el programa más completo y actualizado del mercado.

Tras la superación de la evaluación, el alumno recibirá por correo postal* con acuse de recibo su correspondiente título de Máster Propio emitido por TECH Universidad Tecnológica.

El título expedido por TECH Universidad Tecnológica expresará la calificación que haya obtenido en el Máster Título Propio, y reunirá los requisitos comúnmente exigidos por las bolsas de trabajo, oposiciones y comités evaluadores de carreras profesionales.

Título: Máster Título Propio en Computación Paralela y Distribuida
Nº Horas Oficiales: 1.500 h.

Nuestra escuela es la primera en el mundo que combina el estudio de casos clínicos con un sistema de aprendizaje 100% online basado en la reiteración, que combina 8 elementos diferentes que suponen una evolución con respecto al simple estudio y análisis de casos. Esta metodología, a la vanguardia pedagógica mundial, se denomina Relearning.

Nuestra escuela es la primera en habla hispana licenciada para emplear este exitoso método, habiendo conseguido en 2015 mejorar los niveles de satisfacción global (calidad docente, calidad de los materiales, estructura del curso, objetivos…) de los estudiantes que finalizan los cursos con respecto a los indicadores de la mejor universidad online en habla hispana.

Recibida su solicitud, un responsable académico del curso le llamará para explicarle todos los detalles del programa, así como el método de inscripción, facilidades de pago y plazos de matrícula.

En primer lugar, necesitas un ordenador (PC o Macintosh), conexión a internet y una cuenta de correo electrónico. Para poder realizar los cursos integramente ON-LINE dispone de las siguientes opciones: Flash - Instalando Flash Player 10 o posterior (http://www.adobe.com/go/getflash), en alguno de los siguientes navegadores web: - Windows: Internet Explorer 6 y posteriores, Firefox 1.x y posteriores, Google Chrome, Opera 9.5 y posteriores - Mac: Safari 3 y posteriores, Firefox 1.x y posteriores, Google Chrome - Linux: Firefox 1.x y posteriores HTML5 - Instalando alguno de los navegadores web: - Google Chrome 14 o posterior sobre Windows o Mac - Safari 5.1 o posterior sobre Mac - Mobile Safari sobre Apple iOS 5.0 o posterior en iPad/iPhone Apple iOS - Articulate Mobile Player; Apple iOS 5.0 o posterior en iPad

Preguntas & Respuestas

Añade tu pregunta

Nuestros asesores y otros usuarios podrán responderte

¿Quién quieres que te responda?

Déjanos tus datos para recibir respuesta

Sólo publicaremos tu nombre y pregunta

Opiniones

Materias

  • Definición
  • Modelado
  • Ingeniería del software
  • Desarrollo software
  • Ingeniería
  • Calidad
  • Análisis
  • Orientado
  • Desarrollo
  • Necesidad

Profesores

Martín Olalla Bonal

Martín Olalla Bonal

Director de Arquitectura. Blocknitive

Temario

Módulo 1. Paralelismo en computación paralela y distribuida

1.1. Procesamiento paralelo

1.1.1. Procesamiento paralelo
1.1.2. Procesamiento paralelo en computación. Finalidad
1.1.3. Procesamiento paralelo. Análisis

1.2. Sistema paralelo

1.2.1. El sistema paralelo
1.2.2. Niveles de paralelismo
1.2.3. Composición del sistema paralelo

1.3. Arquitecturas de procesadores

1.3.1. Complejidad del procesador
1.3.2. Arquitectura de procesadores. Modo de operación
1.3.3. Arquitectura de procesadores. Organización de la memoria

1.4. Redes en el procesamiento paralelo

1.4.1. Modo de operación
1.4.2. Estrategia de control
1.4.3. Técnicas de conmutación
1.4.4. Topología

1.5. Arquitecturas paralelas

1.5.1. Algoritmos
1.5.2. Acoplamiento
1.5.3. Comunicación

1.6. Rendimiento de la computación paralela

1.6.1. Evolución del rendimiento
1.6.2. Medidas de performance
1.6.3. Computación Paralela. Casos de estudio

1.7. Taxonomía de Flynn

1.7.1. MIMD: Memoria compartida
1.7.2. MIMD: Memoria distribuida
1.7.3. MIMD: Sistemas híbridos
1.7.4. Flujo de datos

1.8. Formas de paralelismo: TLP (Thread Level Paralelism)

1.8.1. Formas de paralelismo: TLP (Thread Level Paralelism)
1.8.2. Coarse grain
1.8.3. Fine grain
1.8.4. SMT

1.9. Formas de paralelismo: DLP (Data Level Paralelism)

1.9.1. Formas de paralelismo: DLP (Data Level Paralelism)
1.9.2. Short vector processing
1.9.3. Vector processors

1.10. Formas de Paralelismo: ILP (Instruction Level Paralelism)

1.10.1. Formas de Paralelismo: ILP (Instruction Level Paralelism)
1.10.2. Procesador segmentado
1.10.3. Procesador superescalar
1.10.4. Procesador Very Long Instruction Word (VLIW)

Módulo 2. Descomposición en paralelo en computación paralela y distribuida

2.1. Descomposición en paralelo

2.1.1. Procesamiento paralelo
2.1.2. Arquitecturas
2.1.3. Supercomputadoras

2.2. Hardware paralelo y software paralelo

2.2.1. Sistemas en serie
2.2.2. Hardware paralelo
2.2.3. Software paralelo
2.2.4. Entrada y salida
2.2.5. Rendimiento

2.3. Escalabilidad paralela y problemas de rendimiento recurrentes

2.3.1. Paralelismo
2.3.2. Escalabilidad en paralelo
2.3.3. Problemas recurrentes de rendimiento

2.4. Paralelismo de memoria compartida

2.4.1. Paralelismo de memoria compartida
2.4.2. OpenMP y Pthreads
2.4.3. Paralelismo de memoria compartida. Ejemplos

2.5. Unidad de Procesamiento Gráfico (GPU)

2.5.1. Unidad de Procesamiento Gráfico (GPU)
2.5.2. Arquitectura Unificada de Dispositivos Computacionales (CUDA)
2.5.3. Arquitectura Unificada de Dispositivos Computacionales. Ejemplos

2.6. Sistemas de paso de mensajes

2.6.1. Sistemas de paso de mensajes
2.6.2. MPI. Interfaz de paso de mensajes
2.6.3. Sistemas de paso de mensajes. Ejemplos

2.7. Paralelización híbrida con MPI y OpenMP

2.7.1. La programación híbrida
2.7.2. Modelos de programación MPI/OpenMP
2.7.3. Descomposición y mapeo híbrido

2.8. Computación MapReduce

2.8.1. Hadoop
2.8.2. Otros sistemas de cómputo
2.8.3. Computación Paralela. Ejemplos

2.9. Modelo de actores y procesos reactivos

2.9.1. Modelo de actores
2.9.2. Procesos reactivos
2.9.3. Actores y procesos reactivos. Ejemplos

2.10. Escenarios de Computación Paralela

2.10.1. Procesamiento de audio e imágenes
2.10.2. Estadística/minería de datos
2.10.3. Ordenación paralela
2.10.4. Operaciones matriciales paralelas

Módulo 3. Comunicación y coordinación en sistemas de computación

3.1. Procesos de Computación Paralela y Distribuida

3.1.1. Procesos de Computación Paralela y Distribuida
3.1.2. Procesos e hilos
3.1.3. Virtualización
3.1.4. Clientes y servidores

3.2. Comunicación en Computación Paralela

3.2.1. Computación en Computación Paralela
3.2.2. Protocolos por capas
3.2.3. Comunicación en Computación Paralela. Tipología

3.3. Llamada a procedimiento remoto

3.3.1. Funcionamiento de RPC (Remote Procedure Call)
3.3.2. Paso de parámetros
3.3.3. RPC asíncrono
3.3.4. Procedimiento remoto. Ejemplos

Máster en Computación Paralela y Distribuida

$ 2.995 IVA inc.