Inicio »

Desarrollo en Spark y Hadoop

Cómo identificar el uso de  las herramientas del ecosistema Hadoop para cada situación.

Categoría:

Descripción

Objetivo:

Uso del ecosistema Hadoop: Spark, Hive, Flume, Sqoope Impala

Contenidos:

Hadoop y su ecosistema

Hadoop y HDFS

Importar Datos Relacionales usando Apache Sqoop

Introducción a Impala y Hive: Modelado y gestión

Formato y particionado de Datos

Captura de datos con Apache Flume

SparkBásico

Uso de RDDsen Spark

Desarrollo e implantación de aplicaciones Spark

Procesamiento paralelo en Spark

Persistencia RDD en Spark

Patrones Comunes en el procesamiento de datos con Spark

DataFramesy SQL en Spark

¡Infórmate!

Si quieres conocer más detalles de este curso, adaptarlo a tus necesidades o hablar con un experto en la tecnología

    Buscar curso

    Buscar por categorías

    Próximos eventos

    Información adicional

    Duración

    30 horas

    Modalidad

    Presencial/Remota

    Solicita Información



      Suscríbete a la newsletter