Cómo identificar el uso de las herramientas del ecosistema Hadoop para cada situación.
Descripción
Objetivo:
Uso del ecosistema Hadoop: Spark, Hive, Flume, Sqoope Impala
Contenidos:
Hadoop y su ecosistema
Hadoop y HDFS
Importar Datos Relacionales usando Apache Sqoop
Introducción a Impala y Hive: Modelado y gestión
Formato y particionado de Datos
Captura de datos con Apache Flume
SparkBásico
Uso de RDDsen Spark
Desarrollo e implantación de aplicaciones Spark
Procesamiento paralelo en Spark
Persistencia RDD en Spark
Patrones Comunes en el procesamiento de datos con Spark
DataFramesy SQL en Spark
Buscar curso
Buscar por categorías
Próximos eventos
Cloud Computing con Microsoft Azure
septiembre 25 - septiembre 29Docker
Aprende a gestionar y administrar una infraestructura de containers, y desplegar aplicaciones en...
septiembre 25/8:30 am - septiembre 29/2:30 pmSpring con Microservicios
septiembre 25/8:30 am - septiembre 29/3:00 pmJavaScript
Durante el curso, los participantes podrán crear páginas web interactivas, empleando todos los rec...
septiembre 25/8:30 am - septiembre 28/2:30 pmDesarrollo Big Data con Python
septiembre 25/8:30 am - septiembre 29/3:00 pm
Información adicional
Duración | 30 horas |
---|---|
Modalidad | Presencial/Remota |