Curso de BigData con Hadoop y Spark

Aprende Big Data a través de dos de sus principales herramientas para el análisis de datos

Presencial: 500€ IVA inc

Telepresencial: 400€ IVA inc

Características Principales

  • Duración: 30 horas
  • Horarios: Martes, míercoles y jueves de 18:30 a 21:30
  • Precio: 500€ IVA inc
  • 15% Descuento a estudiantes y desempleados
  • 20% si te inscribes con otra persona
  • Bonificable a través de Fundae.

Descripción del curso:

 

Durante el curso estudiaremos en profundidad las principales funcionalidades de Apache Hadoop y Apache Spark en cuestiones relativas al almacenamiento, intercambio y procesamiento y seguridad de los datos entre otras, a través de numerosas prácticas durante la formación.

Al finalizar el curso, conocerás todos los componentes del ecosistema Hadoop que hoy se utilizan en proyectos Big Data (Hive, HDFS, Pig, etc.), y serás capaz de utilizar Apache Spark para el análisis de datos a gran escala, tanto en modo offline como en tiempo real con Spark Streaming.

El curso dará comienzo en

Día(s)

:

Hora(s)

:

Minuto(s)

:

Segundo(s)

Inicio: 21 de octubre de 2019

Horarios: Martes, miércoles y jueves de 18:00 a 21:00

Duración: 30 horas lectivas

Localización: Diego de León 47, Madrid 

Bonificable a través de Fundae

Temario y ficha descriptiva del curso:

Temario del curso.

1. INTRODUCCIÓN A TECNOLOGÍAS BIG DATA, APACHE HADOOP Y APACHE SPARK

  • ¿Qué es Big Data y qué hay de nuevo?
  • Principales tecnologías Big Data.
  • Apache Hadoop: plataforma de almacenamiento y procesamiento de datos.
  • Apache Spark: procesamiento de datos.

2. APACHE HADOOP: CORE.

  • Almacenamiento de datos en Hadoop: HDFS.
  • Gestión de recursos y tareas: YARN.
  • Instalación, administración y monitorización del cluster con Apache Ambari.
  • Seguridad y gobierno de datos.

  3. INGESTA Y TRANSFORMACIÓN DE DATOS EN APACHE HADOOP.

  •  Apache Sqoop: intercambio de datos con bases de datos relacionales.
  • Apache Flume y Apache Kafka: ingesta de datos.
  • Apache Pig: transformación de datos en Hadoop.
  • Herramientas ETL: Informatica PowerCenter, Pentaho Kettle.

4. ACCESO Y EXPLOTACIÓN DE DATOS EN APACHE HADOOP.

  • MapReduce: “antiguo” framework de procesamiento de datos.
  • Apache HBase: NoSQL sobre Hadoop.
  • Apache Hive: SQL sobre Hadoop.
  • Otras tecnologías de SQL sobre Hadoop: Cloudera Impala, Apache Drill, Apache Phoenix.
  • Procesamiento de eventos en tiempo real con Apache Storm.

   5.- APACHE SPARK

  • Introducción a Apache Spark. Spark vs MapReduce vs Tez
  • Introducción a Scala.
  • Conceptos básicos, RDDs, transformaciones y acciones.
  • Desarrollo de aplicaciones con Spark.

    6.- SPARK STREAMING

  • Introducción a Spark Streaming
  • Casos de uso. Apache Storm vs Spark Streaming.
  • Desarrollo de aplicaciones realtime con Spark Streaming.
  • El curso presencial se realizará en una de las aulas asociadas de Culture Lab en Madrid 
  • Todas las aulas están informatizadas, por lo que no será necesario que lleves tu portátil ni materiales adicionales. 
  • Al principio del curso, se hará entrega a todos los alumnos de una carpeta, un bolígrafo, y un pendrive con todas las presentaciones y contenidos principales del curso. 
  • En el momento que lo necesites podrás efectuar tus consultas al formador durante cada una de las sesiones
  • Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L. 

Requisitos del curso: 

  • Es preciso disponer de conocimientos básicos en lenguajes de programación en torno a objetos tales como Java, Pyhton o similares.
  • Se recomienda disponer de nociones en bases de datos tales como SQL o similares. .
  • Se recomienda disponer de una asistencia mínima del 80% para el correcto aprovechamiento de la materia. 
  • El curso tiene un coste de 500€ exentos de IVA en modalidad Presencial
  • El curso tiene un coste de 400€ exentos de IVA en modalidad Presencial

Una vez inscrito, el alumno se le enviará un correo recordatorio con la fecha de inicio y el lugar de impartición del curso. 

 

El curso está principalmente orientado a:  

  • Desarrolladores
  • Programadores
  • Analistas de datos

interesados en conocer el desarrollo Big Data con Hadoop y Spark así como sus posibilidades de implantación:

Objetivos del curso:

  • Entenderás el conjunto de tecnologías que dan soporte a Big Data y el posicionamiento de cada una.
  • Conocerás y practicarás con los componentes asociados al ecosistema Hadoop: Hive, HDFS, Pig, etc.
  • Conocerás Apache Spark y serás capaz de desarrollar programas de análisis de datos con esta tecnología.
  • En resumen, estarás preparado para participar en un proyecto Big Data real
  • La presente convocatoria tambíen está disponible en modalidad Telepresencial.
  • Una vez inscrito, te enviaremos el acceso a la plataforma Telepresencial, y un Drive Privado con toda la información y contenidos.
  • Podrás realizar el curso a través de tu ordenador, móvil o tablet. 
  • Los alumnos deberán conectarse en los mismos horarios que la modalidad Presencial, y disponer de conexión a internet y micrófono.
  • Durante la retransmisión curso, escucharás el discurso del formador en tiempo real, podrás ver la presentación,  realizar ejercicios y consultar tus dudas al momento durante el curso. 
  • Grabaremos todas las sesiones del curso, y las compartiremos a través de un Drive Privado a los alumnos participantes durante 3 meses tras la finalización del curso.
  • Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L. 

Curso Presencial de Big Data con Hadoop y Spark

Aportamos los conocimientos para el uso en Big Data y ser capaces de preparar soluciones para la gestión de enormes volúmenes de datos en tiempo real.