Inicio »

Desarrollo en Spark y Hadoop

Cómo identificar el uso de  las herramientas del ecosistema Hadoop para cada situación.

Categoría:

Descripción

Objetivo:

Uso del ecosistema Hadoop: Spark, Hive, Flume, Sqoope Impala

Contenidos:

Hadoop y su ecosistema

Hadoop y HDFS

Importar Datos Relacionales usando Apache Sqoop

Introducción a Impala y Hive: Modelado y gestión

Formato y particionado de Datos

Captura de datos con Apache Flume

SparkBásico

Uso de RDDsen Spark

Desarrollo e implantación de aplicaciones Spark

Procesamiento paralelo en Spark

Persistencia RDD en Spark

Patrones Comunes en el procesamiento de datos con Spark

DataFramesy SQL en Spark

¡Infórmate!

Si quieres conocer más detalles de este curso, adaptarlo a tus necesidades o hablar con un experto en la tecnología

    Buscar curso

    Buscar por categorías

    Próximos eventos

    Información adicional

    Duración

    30 horas

    Modalidad

    Presencial/Remota

    Solicita Información



      Suscríbete a la newsletter

      "Este sitio web utiliza cookies -propias y de terceros- para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y de nuestra política de cookies, pudiendo acceder al siguiente enlace política de cookies para más información"

      ACEPTAR
      Aviso de cookies