-
Tipo
Masters
-
Modalidad
Online / A distancia
-
Duración / Créditos
136 h.
-
Fechas
Matric. Permanente
-
Sedes
Madrid
Información general
DESCRIPCIÓN:
El Master Experto Big Data Architecture & Engineering es un programa de formación diseñado para profesionales del sector de Big Data, altamente especializado, donde alcanzarás los conocimientos técnicos y prácticos necesarios para progresar en el mundo de la Ingeniería Big Data y la Arquitectura.
Dominarás el diseño de sistemas de procesamiento de datos a gran escala, suministrando información sobre decisiones arquitectónicas, incluyendo hardware y software. Además, obtendrás conocimiento avanzado de sistemas y modelos para la gestión de diferentes tipos de datos (estructurado, semi estructurado, no estructurado). De igual manera enfrentarás eficazmente los retos de seguridad y control de la información asociadas con el sistema.
Dominarás el diseño de sistemas de procesamiento de datos a gran escala, suministrando información sobre decisiones arquitectónicas, incluyendo hardware y software. Además, obtendrás conocimiento avanzado de sistemas y modelos para la gestión de diferentes tipos de datos (estructurado, semi estructurado, no estructurado). De igual manera enfrentarás eficazmente los retos de seguridad y control de la información asociadas con el sistema.
Titulación universitaria
ASPECTOS A TENER EN CUENTA
FINALIDAD DEL PROGRAMA FORMATIVO:
Comprender los procesos y herramientas de la arquitectura de datos para Big Data.
Conocer las Infraestructuras y Plataformas Big Data On-Premise, Cloud, Virtuales, Basadas en Contenedores.
Aplicar Ingeniería de Procesos para el ingreso, protección, gestión y almacenamiento de datos.
Aplicar soluciones al procesamiento de datos con la arquitectura Hadoop.
Comprender arquitectura, topología, configuración y APIS de Apache Kafka.
Utilizar sistema Spark para el análisis y procesamiento de datos del Big Data y el Machine Learning.
Utilizar contenedores Docker y Kubernetes.
Conocer las Infraestructuras y Plataformas Big Data On-Premise, Cloud, Virtuales, Basadas en Contenedores.
Aplicar Ingeniería de Procesos para el ingreso, protección, gestión y almacenamiento de datos.
Aplicar soluciones al procesamiento de datos con la arquitectura Hadoop.
Comprender arquitectura, topología, configuración y APIS de Apache Kafka.
Utilizar sistema Spark para el análisis y procesamiento de datos del Big Data y el Machine Learning.
Utilizar contenedores Docker y Kubernetes.
¿A quién va dirigido?
El Máster Experto en Arquitectura Big Data de datahack es un programa de formación dirigido a profesionales del sector del Big Data. Una oferta formativa única y altamente especializada con la que podrás avanzar en tu carrera profesional.
TITULACIÓN
Máster Experto Big Data Architecture & Engineering
TEMARIO
MÓDULO: 1 NOSQL
- Bases de datos NoSql.
- Bases de datos relacionales (ACID y Transacciones)
- NoSQL (BASE, CAP).
- Apache Cassandra, Mongo Db, Neo4J.
MÓDULO: 2 ELASTIC STACK
- Motor de indexación basado en Lucen y su sistema de almacenamiento.
- Diseño de índices.
- Problemas con Elasticsearch.
MÓDULO: 3 HADOOP
- Basics: HDFS, map-reduce, yarn y administración del clúster.
- Ecosistema: Pig, Hive, Impala, Flume, Sqoop y Ozzie.
MÓDULO: 4 CLUSTER
- Despliegue de un cluster en Cloud.
MÓDULO: 5 KAFKA
- Introducción a la Arquitectura, Topología, Configuración y APIS de Apache Kafka.
- Caso de uso como plataforma de Streaming y backbone de comunicación.
MÓDULO: 6 SPARK
- Spark Core, Spark SQL, Spark Streaming, Spark MLLib, Spark Graph.
MÓDULO: 7 DOCKER
- Revisión de características y arquitectura.
- Definición de contenedores.
- Aplicación en el clúster del swarm.
MÓDULO: 8 KUBERNETES
- De lo básico al avanzado.
- Instalación de entorno.
- Herramientas, bases y gestión de Clústers.
EVALUACIONES POR MÓDULO
- Bases de datos NoSql.
- Bases de datos relacionales (ACID y Transacciones)
- NoSQL (BASE, CAP).
- Apache Cassandra, Mongo Db, Neo4J.
MÓDULO: 2 ELASTIC STACK
- Motor de indexación basado en Lucen y su sistema de almacenamiento.
- Diseño de índices.
- Problemas con Elasticsearch.
MÓDULO: 3 HADOOP
- Basics: HDFS, map-reduce, yarn y administración del clúster.
- Ecosistema: Pig, Hive, Impala, Flume, Sqoop y Ozzie.
MÓDULO: 4 CLUSTER
- Despliegue de un cluster en Cloud.
MÓDULO: 5 KAFKA
- Introducción a la Arquitectura, Topología, Configuración y APIS de Apache Kafka.
- Caso de uso como plataforma de Streaming y backbone de comunicación.
MÓDULO: 6 SPARK
- Spark Core, Spark SQL, Spark Streaming, Spark MLLib, Spark Graph.
MÓDULO: 7 DOCKER
- Revisión de características y arquitectura.
- Definición de contenedores.
- Aplicación en el clúster del swarm.
MÓDULO: 8 KUBERNETES
- De lo básico al avanzado.
- Instalación de entorno.
- Herramientas, bases y gestión de Clústers.
EVALUACIONES POR MÓDULO
SALIDAS PROFESIONALES
Con esta formación podrás ejercer como profesional cualificado en puestos de trabajo de:
- Data Scientist
- Data Consultant
- Arquitecto de datos Big Data Developer
TE RECOMENDAMOS VER TAMBIÉN
En los siguientes enlaces podrás ver programas formativos similares:
UBICACIONES DE NUESTRAS SEDES
-
Madrid
C/ Colombia 29
Opiniones
No hay opiniones registradas para este curso