Home »

Desarrollo en Spark y Hadoop

Desarrollo en Spark y Hadoop

Cómo identificar el uso de  las herramientas del ecosistema Hadoop para cada situación.

Categoría:

Descripción

Objetivo:

Uso del ecosistema Hadoop: Spark, Hive, Flume, Sqoope Impala

Contenidos:

Hadoop y su ecosistema

Hadoop y HDFS

Importar Datos Relacionales usando Apache Sqoop

Introducción a Impala y Hive: Modelado y gestión

Formato y particionado de Datos

Captura de datos con Apache Flume

SparkBásico

Uso de RDDsen Spark

Desarrollo e implantación de aplicaciones Spark

Procesamiento paralelo en Spark

Persistencia RDD en Spark

Patrones Comunes en el procesamiento de datos con Spark

DataFramesy SQL en Spark

¡Infórmate!

Si quieres conocer más detalles de este curso, adaptarlo a tus necesidades o hablar con un experto en la tecnología

Buscar curso

Buscar por categorías

Próximos eventos

  • OpenShift para Desarrolladores

    OpenShift es una plataforma de contenedores de Kubernetes empresarial con operaciones automatizadas ...

    septiembre 2 @ 3:00 pm - septiembre 5 @ 8:00 pm
  • TypeScript

    Aprende TypeScript, la tecnología pensada para mejorar el desarrollo de código de aplicaciones JS....

    septiembre 9 @ 2:30 pm - septiembre 13 @ 8:30 pm
  • Lenguaje Scala

    Aprende las bases fundamentales de la programación funcional en Scala integrada con la orientación...

    septiembre 16 @ 3:00 pm - septiembre 20 @ 8:00 pm
Interactúa y comparte en las Redes Sociales

Información adicional

Duración

30 horas

Modalidad

Presencial/Remota

"Este sitio web utiliza cookies -propias y de terceros- para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y de nuestra política de cookies, pudiendo acceder al siguiente enlace política de cookies para más información"

ACEPTAR
Aviso de cookies