Home »

Desarrollo en Spark y Hadoop

Desarrollo en Spark y Hadoop

Cómo identificar el uso de  las herramientas del ecosistema Hadoop para cada situación.

Categoría:

Descripción

Objetivo:

Uso del ecosistema Hadoop: Spark, Hive, Flume, Sqoope Impala

Contenidos:

Hadoop y su ecosistema

Hadoop y HDFS

Importar Datos Relacionales usando Apache Sqoop

Introducción a Impala y Hive: Modelado y gestión

Formato y particionado de Datos

Captura de datos con Apache Flume

SparkBásico

Uso de RDDsen Spark

Desarrollo e implantación de aplicaciones Spark

Procesamiento paralelo en Spark

Persistencia RDD en Spark

Patrones Comunes en el procesamiento de datos con Spark

DataFramesy SQL en Spark

¡Infórmate!

Si quieres conocer más detalles de este curso, adaptarlo a tus necesidades o hablar con un experto en la tecnología

Buscar curso

Buscar por categorías

Próximos eventos

  • Lenguaje Scala

    Bases fundamentales de la programación funcional en Scala integrada con la orientación a objetos I...

    diciembre 9 @ 9:00 am - diciembre 13 @ 2:00 pm
  • Spring (Core+MVC)

    Con este curso aprenderás a crear aplicaciones con Spring Interactúa y comparte en las Redes Socia...

    diciembre 16 @ 9:00 am - diciembre 19 @ 2:00 pm
Interactúa y comparte en las Redes Sociales

Información adicional

Duración

30 horas

Modalidad

Presencial/Remota

"Este sitio web utiliza cookies -propias y de terceros- para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y de nuestra política de cookies, pudiendo acceder al siguiente enlace política de cookies para más información"

ACEPTAR
Aviso de cookies