Cómo identificar el uso de las herramientas del ecosistema Hadoop para cada situación.
Descripción
Objetivo:
Uso del ecosistema Hadoop: Spark, Hive, Flume, Sqoope Impala
Contenidos:
Hadoop y su ecosistema
Hadoop y HDFS
Importar Datos Relacionales usando Apache Sqoop
Introducción a Impala y Hive: Modelado y gestión
Formato y particionado de Datos
Captura de datos con Apache Flume
SparkBásico
Uso de RDDsen Spark
Desarrollo e implantación de aplicaciones Spark
Procesamiento paralelo en Spark
Persistencia RDD en Spark
Patrones Comunes en el procesamiento de datos con Spark
DataFramesy SQL en Spark
Buscar curso
Buscar por categorías
Próximos eventos
Spring con Microservicios
marzo 27/9:00 am - marzo 31/3:00 pmAngular Iniciación
marzo 27/9:00 am - marzo 31/3:00 pmDesarrollo Big Data con Python
marzo 27/9:00 am - marzo 31/3:00 pmNovedades Angular
abril 10/9:00 am - abril 14/3:00 pmProgramación PYTHON
abril 17/9:00 am - abril 21/2:00 pm
Información adicional
Duración | 30 horas |
---|---|
Modalidad | Presencial/Remota |