-
Tipo
Cursos
-
Modalidad
Online / A distancia
-
Fechas
Matric. Permanente
-
Sedes
Madrid
Información general
DESCRIPCIÓN:
En la era del Big Data, las organizaciones generan volúmenes masivos de información cada segundo. ¿Quién asegura que estos datos sean gestionados correctamente, cumplan normativas y generen valor estratégico? El Curso IFCT107 Responsable Data de Edil Formación forma a los profesionales que liderarán esta revolución del dato.
El rol de Responsable Data combina visión técnica con perspectiva estratégica. Los participantes aprenderán a diseñar arquitecturas de datos, implementar sistemas de gobernanza y garantizar el cumplimiento del RGPD y otras regulaciones internacionales. La formación aborda desde la captura y almacenamiento hasta el análisis y protección de la información sensible.
El programa explora herramientas de gestión de datos, metodologías para asegurar calidad y trazabilidad, así como técnicas para convertir datos brutos en insights accionables. Se enfatiza la importancia de crear culturas data-driven donde la información sustenta cada decisión empresarial.
Industrias como finanzas, salud, retail y tecnología buscan urgentemente profesionales capaces de extraer valor de sus activos de datos mientras protegen la privacidad. Este curso prepara para liderar iniciativas de transformación digital basadas en datos, posicionando a los graduados en uno de los perfiles más cotizados del mercado laboral actual.
El rol de Responsable Data combina visión técnica con perspectiva estratégica. Los participantes aprenderán a diseñar arquitecturas de datos, implementar sistemas de gobernanza y garantizar el cumplimiento del RGPD y otras regulaciones internacionales. La formación aborda desde la captura y almacenamiento hasta el análisis y protección de la información sensible.
El programa explora herramientas de gestión de datos, metodologías para asegurar calidad y trazabilidad, así como técnicas para convertir datos brutos en insights accionables. Se enfatiza la importancia de crear culturas data-driven donde la información sustenta cada decisión empresarial.
Industrias como finanzas, salud, retail y tecnología buscan urgentemente profesionales capaces de extraer valor de sus activos de datos mientras protegen la privacidad. Este curso prepara para liderar iniciativas de transformación digital basadas en datos, posicionando a los graduados en uno de los perfiles más cotizados del mercado laboral actual.
ASPECTOS A TENER EN CUENTA
FINALIDAD DEL PROGRAMA FORMATIVO:
- Diseñar estrategias integrales de gobernanza de datos
- Implementar políticas de protección y privacidad
- Gestionar el ciclo de vida completo de la información
- Garantizar calidad y coherencia en bases de datos
- Evaluar herramientas de gestión y análisis de datos
- Liderar equipos multidisciplinares en proyectos data
- Implementar políticas de protección y privacidad
- Gestionar el ciclo de vida completo de la información
- Garantizar calidad y coherencia en bases de datos
- Evaluar herramientas de gestión y análisis de datos
- Liderar equipos multidisciplinares en proyectos data
¿A quién va dirigido?
- Profesionales IT interesados en especialización en datos
- Analistas de datos que buscan asumir roles de liderazgo
- Responsables de cumplimiento normativo
- Gestores de proyectos digitales
- Consultores tecnológicos con perfil estratégico
- Analistas de datos que buscan asumir roles de liderazgo
- Responsables de cumplimiento normativo
- Gestores de proyectos digitales
- Consultores tecnológicos con perfil estratégico
TEMARIO
UNIDAD DIDÁCTICA 1. INTRODUCCIÓN: LA IMPORTANCIA DEL DATO
Concienciación en relación a cómo la ciencia del dato afecta a todos los sectores y puede ser el aliado perfecto para el mundo de los negocios.
Conocimiento de los diferentes modelos de negocio basado en datos:
– Nuevos modelos de negocio en torno al dato.
– Tipología de datos y cómo se obtienen.
– Maneras de rentabilizar el dato.
– Data Business Model Canvas.
Adquisición de conocimientos sobre los avances en Big Data & Inteligencia Artificial (IA).
– Estado actual.
– Posible evolución futura.
Dominio de Conceptos básicos:
– Qué es Big Data.
– Qué es Machine Learning.
– Qué es Deep Learning.
Concienciación sobre el poder de los datos en las organizaciones tanto para mejorar la toma de decisiones como para crear modelos de negocio basado en datos.
Visión trasversal sobre cómo Data Science se aplica en las diferentes áreas de la organización para impulsar las capacidades.
UNIDAD DIDÁCTICA 2. NOCIONES INICIALES DE PYTHON, DATA ENGINEERING Y ESTADÍSTICA
Desarrollo de los fundamentos de Big Data.
– Qué es el Big Data.
– Perfiles técnicos: Data Analyst, Engineer, Arquitect, QA…
– El proceso de construir un proyecto de Big Data.
– Arquitecturas de Big Data.
– Las claves del éxito del big data.
Identificación de los fundamentos de Machine Learning.
– Introducción al Machine Learning: Datos, algoritmos, modelos, producción…
– Aproximación a los algoritmos: clasificación, predicción y clustering.
– Creación de modelos de Machine Learning.
– Las claves del aprendizaje automático.
– La productivización de modelos.
Análisis de los fundamentos de IA: Visión, NPL…
– Introducción al Deep Learning y sus aplicaciones.
– Tipos de redes neuronales y su entrenamiento.
– Funcionamiento y retos del Data Science aplicado al Computer Vision y al NPL.
Conocimientos avanzados de Python Crash Course.
– Uso de pycharm como entorno de trabajo.
– Uso de notebooks.
– Conocimiento de la sintaxis del lenguaje: bucles, variables.
– Librerías.
– Funciones.
– Programación orientada a objetos en Python.
Aproximación a la arquitectura de la información y al SQL.
– Qué es la arquitectura de datos.
– Modelo relacional tradicional.
– Modelo estrella.
– Modelo copo de nieve.
– Bases de la normalización de datos.
– Definiciones esenciales: base de datos, tablespace, tabla, vista, vista materializada, clave primaria, índice y partición.
– SQL.
– Sintaxis del lenguaje.
Identificación del Crash course de python para data engineers: SQL y dataframes.
– Consulta de datos.
– Cruce de tablas.
– Inserción y borrado.
– Dataframes:
* Qué es una serie.
* Qué es un dataframe.
* Cruces con dataframe.
* Funciones lambda con columnas.
* Leer y salvar datos desde y a dataframe desde distintos formatos.
Diferenciación entre ETL/ELT y preproceso de datos.
– ELT o ETL.
– Pipelines de datos.
– ¿Cómo estructurar los distintos pasos del workflow de datos?
– Automatización de procesos.
Aplicación del proceso del análisis exploratorio.
– Arranque de un proceso exploratorio.
– Los objetivos de un análisis exploratorio.
– Uso del proceso exploratorio para validación de hipótesis.
– Naturaleza iterativa del proceso.
Utilización de herramientas de visualización exploratoria y librerías.
– Análisis descriptivo gráfico.
– Análisis descriptivo basado en estadísticos.
Realización de análisis univariante y multivariante.
– Análisis multivariante.
– Análisis univariante.
Conocimiento de la Estadística descriptiva.
– Media, mediana, momentos, etc.
– Desviación, varianza.
– Sesgos y medidas de homogeneidad de la información.
Aproximación breve al algebra lineal.
– Operaciones matriz-escalar.
– Operaciones matriz-matriz.
– Propiedades de las matrices: no conmutativa, asociativa, distributiva, matriz identidad.
– Trasposición e inversa de una matriz.
Análisis de correlación de variables: fundamentos de estadística y probabilidad.
– Ingeniería de características: descarte y selección de características.
– Cómo analizar la correlación entre variables.
– Efecto de las correlaciones.
– Eliminación de la correlación.
Deducción estadística y contraste de hipótesis.
– Definición de una distribución una variable aleatoria.
– Definición de una función de probabilidad.
UNIDAD DIDÁCTICA 3. CONOCIMIENTO AVANZADO DE MACHINE LEARNING & ARTIFICIAL INTELLIGENCE
Aproximación a la modelización.
– Introducción a la modelización.
– Tipos de modelos.
Identificación de los Modelos de regresión.
– Modelos de regresión simple.
– Modelos de regresión múltiple.
– Modelos de regresión generalizado.
Clasificación de los distintos modelos de Árboles: .
– Modelos de inferencia de árboles de decisión y regresión:
* Clasificadores binarios.
* Regresión.
– Modelos de inferencia de árboles de decisión: clasificadores multiclase.
– Modelos avanzados de árboles:
* Boosting.
* Random forest.
Conocimientos de Algoritmos alternativos de clasificación.
Conocimientos de Eager y Lazy classifiers
Utilización de Clustering.
– Introducción a los modelos no supervisados.
– Análisis clúster.
Aproximación al método científico:
– Evaluación de modelos.
Evaluación y optimización de modelos:
– Control de outliers y análisis de residuos.
– Modelos no supervisados.
– Modelos supervisados.
Creación de Ingeniería de variables:
– Principios de la ingeniería de variables en la creación de variables.
– La dimensionalidad.
– Técnicas: PCA y SVD.
Ensamblado de modelos:
– Definición de model ensembles.
– Modelos débiles y modelos fuertes.
– Creación de pipelines para crear modelos ensamblados.
Gestión del ciclo de vida de los modelos.
Aproximación a modelos heurísticos de optimización.
Conocimiento de los algoritmos genéticos.
– Principios de optimización basado en heurísticos.
– Gradiente descendente.
– Modelos basados en comportamientos animales.
– El algoritmo genético.
– Aplicaciones de los algoritmos genéticos.
– Cromosoma y función de fitness.
– Resolución de un problema usando algoritmos genéticos.
Utilización de series temporales y forecasting.
– Bases sobre componentes de las series temporales: tendencia, ciclo y estacionalidad.
– Series estacionarias y no estacionarias.
– Análisis de anomalías.
– Suavizado exponencial.
– Modelos autoregresivos.
– Modelos univariantes y multivariantes.
– Modelos arima.
– Modelos con parametrización automática.
Gestión de proyectos de Data Science.
UNIDAD DIDÁCTICA 4. APLICACIONES DEL DEEP LEARNING
Aproximación a redes neuronales artificiales (ANN).
– ¿Qué es una red neuronal artificial?
– Tipos de redes: profundas y superficiales (shallow).
– Técnica del gradiente descendiente.
Conocimiento de los campos de aplicación de ANN.
– Visión por computador.
– Análisis y síntesis del lenguaje.
– Análisis de secuencias.
– GAN y deepfake.
Aproximación al Shallow & Deep neural networks. Introducción CNN.
– Perceptrón simple.
– Topologías de redes neuronales.
– MNIST.
– Regularización: L1, L2, dropout y otros.
– Creación de una CNN con keras.
Comprensión del diseño de redes neuronales artificiales (ANN), redes convolucionales (CNN) y redes recurrentes (RNN).
UNIDAD DIDÁCTICA 5. ENTORNOS BIG DATA & CLOUD
Conocimientos de Big Data y de los principios de arquitecturas de computación distribuidas y altamente escalables.
– Comprender el papel del Big data en la ciencia de datos.
– Apache Spark.
– Spark en modo batch y en semi-tiempo real (microbatches).
– Lazy evaluation.
Utilización de Dataframes y Data pipelines en Spark.
– Operaciones sobre dataframes (SQL o pyspark).
– Creación de data pipelines con spark.
– Transformación de dataframes.
Creación de modelos de Machine Learning en Spark.
– Entrenamiento de modelos e integración en pipelines.
– Aplicación de la inferencia de modelos en Spark.
Despliegue de pipelines de modelos con Spark.
Desarrollo de modelos con proveedores de Cloud Machine Learning.
UNIDAD DIDÁCTICA 6. VISUALIZACIÓN DE LOS DATOS
Comprensión de las claves del storytelling a través de los datos.
La ciencia de la visualización de datos y el storytelling: su valor en el mundo profesional.
Uso del storytelling con datos.
Principios de la comunicación visual de los datos.
Uso de los distintos controles visuales.
Comprensión de los conceptos Business Intelligence y Data Visualization.
Entender el proceso para trabajar en la herramienta de visualización en un contexto de Business Intelligence.
Fuentes de datos, tratamiento y preparación de datos, modelaje de datos (relaciones), análisis exploratorio y específicos, visualización y reporting.
Profundización en la herramienta PowerBI para poder conectar datos, prepararlos, modelarlos, explorarlos y visualizarlos.
Entorno de PowerBI: organización y componentes.
Importación de datos.
Visualizaciones básicas realizando agrupaciones y aplicando filtros.
Trabajar y preparar los datos: columnas calculadas, medidas, fórmulas con DAX, tablas calculadas…
Trabajar con tablas matrices para aumentar la granularidad de los informes.
Filtrar los datos de manera dinámica con la segmentación de datos.
Aproximación a la herramienta Tableau.
UNIDAD DIDÁCTICA 7. HABILIDADES Y COMPETENCIAS DE GESTIÓN, PERSONALES Y SOCIALES, PARA EL ENTORNO DIGITAL
Impulso de habilidades digitales:
– Liderazgo participativo.
– Gestión del cambio.
– Inteligencia emocional.
– Storytelling.
– Creación de marca personal.
– Comunicación y negociación en entornos digitales.
Comprensión de las competencias necesarias para el nuevo entorno digital:
– La influencia digital.
– La colaboración en el entorno.
– La integración de la diversidad.
– La gestión emocional.
– La agilidad en toma de decisiones.
– La anticipación en contextos digitales.
– La flexibilidad para la transformación.
– La asunción de incertidumbre y riesgos.
– La elaboración, gestión y difusión de contenidos.
Conocimiento de las herramientas imprescindibles para:
– El trabajo colaborativo.
– El trabajo en remoto.
– La gestión de proyectos.
– Automatización de flujos de trabajo.
Práctica en las claves del trabajo en equipo y de la productividad en remoto.
Fomento del liderazgo participativo y la gestión del cambio.
Dominio de la comunicación y la negociación en entornos digitales.
Práctica del modelo de competencias para el entorno digital.
Elaboración y gestión de la marca personal desde la importancia del storytelling.
Concienciación en relación a cómo la ciencia del dato afecta a todos los sectores y puede ser el aliado perfecto para el mundo de los negocios.
Conocimiento de los diferentes modelos de negocio basado en datos:
– Nuevos modelos de negocio en torno al dato.
– Tipología de datos y cómo se obtienen.
– Maneras de rentabilizar el dato.
– Data Business Model Canvas.
Adquisición de conocimientos sobre los avances en Big Data & Inteligencia Artificial (IA).
– Estado actual.
– Posible evolución futura.
Dominio de Conceptos básicos:
– Qué es Big Data.
– Qué es Machine Learning.
– Qué es Deep Learning.
Concienciación sobre el poder de los datos en las organizaciones tanto para mejorar la toma de decisiones como para crear modelos de negocio basado en datos.
Visión trasversal sobre cómo Data Science se aplica en las diferentes áreas de la organización para impulsar las capacidades.
UNIDAD DIDÁCTICA 2. NOCIONES INICIALES DE PYTHON, DATA ENGINEERING Y ESTADÍSTICA
Desarrollo de los fundamentos de Big Data.
– Qué es el Big Data.
– Perfiles técnicos: Data Analyst, Engineer, Arquitect, QA…
– El proceso de construir un proyecto de Big Data.
– Arquitecturas de Big Data.
– Las claves del éxito del big data.
Identificación de los fundamentos de Machine Learning.
– Introducción al Machine Learning: Datos, algoritmos, modelos, producción…
– Aproximación a los algoritmos: clasificación, predicción y clustering.
– Creación de modelos de Machine Learning.
– Las claves del aprendizaje automático.
– La productivización de modelos.
Análisis de los fundamentos de IA: Visión, NPL…
– Introducción al Deep Learning y sus aplicaciones.
– Tipos de redes neuronales y su entrenamiento.
– Funcionamiento y retos del Data Science aplicado al Computer Vision y al NPL.
Conocimientos avanzados de Python Crash Course.
– Uso de pycharm como entorno de trabajo.
– Uso de notebooks.
– Conocimiento de la sintaxis del lenguaje: bucles, variables.
– Librerías.
– Funciones.
– Programación orientada a objetos en Python.
Aproximación a la arquitectura de la información y al SQL.
– Qué es la arquitectura de datos.
– Modelo relacional tradicional.
– Modelo estrella.
– Modelo copo de nieve.
– Bases de la normalización de datos.
– Definiciones esenciales: base de datos, tablespace, tabla, vista, vista materializada, clave primaria, índice y partición.
– SQL.
– Sintaxis del lenguaje.
Identificación del Crash course de python para data engineers: SQL y dataframes.
– Consulta de datos.
– Cruce de tablas.
– Inserción y borrado.
– Dataframes:
* Qué es una serie.
* Qué es un dataframe.
* Cruces con dataframe.
* Funciones lambda con columnas.
* Leer y salvar datos desde y a dataframe desde distintos formatos.
Diferenciación entre ETL/ELT y preproceso de datos.
– ELT o ETL.
– Pipelines de datos.
– ¿Cómo estructurar los distintos pasos del workflow de datos?
– Automatización de procesos.
Aplicación del proceso del análisis exploratorio.
– Arranque de un proceso exploratorio.
– Los objetivos de un análisis exploratorio.
– Uso del proceso exploratorio para validación de hipótesis.
– Naturaleza iterativa del proceso.
Utilización de herramientas de visualización exploratoria y librerías.
– Análisis descriptivo gráfico.
– Análisis descriptivo basado en estadísticos.
Realización de análisis univariante y multivariante.
– Análisis multivariante.
– Análisis univariante.
Conocimiento de la Estadística descriptiva.
– Media, mediana, momentos, etc.
– Desviación, varianza.
– Sesgos y medidas de homogeneidad de la información.
Aproximación breve al algebra lineal.
– Operaciones matriz-escalar.
– Operaciones matriz-matriz.
– Propiedades de las matrices: no conmutativa, asociativa, distributiva, matriz identidad.
– Trasposición e inversa de una matriz.
Análisis de correlación de variables: fundamentos de estadística y probabilidad.
– Ingeniería de características: descarte y selección de características.
– Cómo analizar la correlación entre variables.
– Efecto de las correlaciones.
– Eliminación de la correlación.
Deducción estadística y contraste de hipótesis.
– Definición de una distribución una variable aleatoria.
– Definición de una función de probabilidad.
UNIDAD DIDÁCTICA 3. CONOCIMIENTO AVANZADO DE MACHINE LEARNING & ARTIFICIAL INTELLIGENCE
Aproximación a la modelización.
– Introducción a la modelización.
– Tipos de modelos.
Identificación de los Modelos de regresión.
– Modelos de regresión simple.
– Modelos de regresión múltiple.
– Modelos de regresión generalizado.
Clasificación de los distintos modelos de Árboles: .
– Modelos de inferencia de árboles de decisión y regresión:
* Clasificadores binarios.
* Regresión.
– Modelos de inferencia de árboles de decisión: clasificadores multiclase.
– Modelos avanzados de árboles:
* Boosting.
* Random forest.
Conocimientos de Algoritmos alternativos de clasificación.
Conocimientos de Eager y Lazy classifiers
Utilización de Clustering.
– Introducción a los modelos no supervisados.
– Análisis clúster.
Aproximación al método científico:
– Evaluación de modelos.
Evaluación y optimización de modelos:
– Control de outliers y análisis de residuos.
– Modelos no supervisados.
– Modelos supervisados.
Creación de Ingeniería de variables:
– Principios de la ingeniería de variables en la creación de variables.
– La dimensionalidad.
– Técnicas: PCA y SVD.
Ensamblado de modelos:
– Definición de model ensembles.
– Modelos débiles y modelos fuertes.
– Creación de pipelines para crear modelos ensamblados.
Gestión del ciclo de vida de los modelos.
Aproximación a modelos heurísticos de optimización.
Conocimiento de los algoritmos genéticos.
– Principios de optimización basado en heurísticos.
– Gradiente descendente.
– Modelos basados en comportamientos animales.
– El algoritmo genético.
– Aplicaciones de los algoritmos genéticos.
– Cromosoma y función de fitness.
– Resolución de un problema usando algoritmos genéticos.
Utilización de series temporales y forecasting.
– Bases sobre componentes de las series temporales: tendencia, ciclo y estacionalidad.
– Series estacionarias y no estacionarias.
– Análisis de anomalías.
– Suavizado exponencial.
– Modelos autoregresivos.
– Modelos univariantes y multivariantes.
– Modelos arima.
– Modelos con parametrización automática.
Gestión de proyectos de Data Science.
UNIDAD DIDÁCTICA 4. APLICACIONES DEL DEEP LEARNING
Aproximación a redes neuronales artificiales (ANN).
– ¿Qué es una red neuronal artificial?
– Tipos de redes: profundas y superficiales (shallow).
– Técnica del gradiente descendiente.
Conocimiento de los campos de aplicación de ANN.
– Visión por computador.
– Análisis y síntesis del lenguaje.
– Análisis de secuencias.
– GAN y deepfake.
Aproximación al Shallow & Deep neural networks. Introducción CNN.
– Perceptrón simple.
– Topologías de redes neuronales.
– MNIST.
– Regularización: L1, L2, dropout y otros.
– Creación de una CNN con keras.
Comprensión del diseño de redes neuronales artificiales (ANN), redes convolucionales (CNN) y redes recurrentes (RNN).
UNIDAD DIDÁCTICA 5. ENTORNOS BIG DATA & CLOUD
Conocimientos de Big Data y de los principios de arquitecturas de computación distribuidas y altamente escalables.
– Comprender el papel del Big data en la ciencia de datos.
– Apache Spark.
– Spark en modo batch y en semi-tiempo real (microbatches).
– Lazy evaluation.
Utilización de Dataframes y Data pipelines en Spark.
– Operaciones sobre dataframes (SQL o pyspark).
– Creación de data pipelines con spark.
– Transformación de dataframes.
Creación de modelos de Machine Learning en Spark.
– Entrenamiento de modelos e integración en pipelines.
– Aplicación de la inferencia de modelos en Spark.
Despliegue de pipelines de modelos con Spark.
Desarrollo de modelos con proveedores de Cloud Machine Learning.
UNIDAD DIDÁCTICA 6. VISUALIZACIÓN DE LOS DATOS
Comprensión de las claves del storytelling a través de los datos.
La ciencia de la visualización de datos y el storytelling: su valor en el mundo profesional.
Uso del storytelling con datos.
Principios de la comunicación visual de los datos.
Uso de los distintos controles visuales.
Comprensión de los conceptos Business Intelligence y Data Visualization.
Entender el proceso para trabajar en la herramienta de visualización en un contexto de Business Intelligence.
Fuentes de datos, tratamiento y preparación de datos, modelaje de datos (relaciones), análisis exploratorio y específicos, visualización y reporting.
Profundización en la herramienta PowerBI para poder conectar datos, prepararlos, modelarlos, explorarlos y visualizarlos.
Entorno de PowerBI: organización y componentes.
Importación de datos.
Visualizaciones básicas realizando agrupaciones y aplicando filtros.
Trabajar y preparar los datos: columnas calculadas, medidas, fórmulas con DAX, tablas calculadas…
Trabajar con tablas matrices para aumentar la granularidad de los informes.
Filtrar los datos de manera dinámica con la segmentación de datos.
Aproximación a la herramienta Tableau.
UNIDAD DIDÁCTICA 7. HABILIDADES Y COMPETENCIAS DE GESTIÓN, PERSONALES Y SOCIALES, PARA EL ENTORNO DIGITAL
Impulso de habilidades digitales:
– Liderazgo participativo.
– Gestión del cambio.
– Inteligencia emocional.
– Storytelling.
– Creación de marca personal.
– Comunicación y negociación en entornos digitales.
Comprensión de las competencias necesarias para el nuevo entorno digital:
– La influencia digital.
– La colaboración en el entorno.
– La integración de la diversidad.
– La gestión emocional.
– La agilidad en toma de decisiones.
– La anticipación en contextos digitales.
– La flexibilidad para la transformación.
– La asunción de incertidumbre y riesgos.
– La elaboración, gestión y difusión de contenidos.
Conocimiento de las herramientas imprescindibles para:
– El trabajo colaborativo.
– El trabajo en remoto.
– La gestión de proyectos.
– Automatización de flujos de trabajo.
Práctica en las claves del trabajo en equipo y de la productividad en remoto.
Fomento del liderazgo participativo y la gestión del cambio.
Dominio de la comunicación y la negociación en entornos digitales.
Práctica del modelo de competencias para el entorno digital.
Elaboración y gestión de la marca personal desde la importancia del storytelling.
SALIDAS PROFESIONALES
Con esta formación podrás ejercer como profesional cualificado en puestos de trabajo de:
- Chief Data Officer
- Responsable de Datos
- Data Governance Manager
- Consultor de Gobernanza
- Analista de Privacidad
- Especialista en Compliance
TE RECOMENDAMOS VER TAMBIÉN
En los siguientes enlaces podrás ver programas formativos similares:
UBICACIONES DE NUESTRAS SEDES
-
Madrid
Calle Zurbano, 45, 1ª Planta
Opiniones
No hay opiniones registradas para este curso