BigData con Apache Hadoop y Apache Spark

Aprende Big Data a través de dos de sus principales herramientas para el análisis de datos

Precio: 250€ IVA inc

Características Principales

  • Duración: 30 horas
  • Elementos: 120 lecciones, 2 exámenes y 16 prácticas
  • Precio: 250€ IVA inc
  • 15% Descuento a estudiantes y desempleados
  • 20% si te inscribes con otra persona

Descripción del curso:

 

El presente curso buscar dotar al alumno del uso de las diferentes técnicas de ingesta masiva así como gestión de datos en tiempo real con Big Data a través de Apache Hadoop, una herramienta de creación de soluciones distribuidas a través de nodos así como el uso y aprendizaje de Open Source de Spark para la optimización de la velocidad de los datos.

Está principalmente orientado a personas con experiencia en programación en torno a objetos y nociones en bases de datos que quieran profundizar en el uso práctico de Big Data a través de numerosas prácticas y ejercicios. 

Convocatoria abierta

Prácticas y exámenes

Certificado del curso

Bolsa activa de empleo

Bonificable a través de Fundae

Temario y ficha descriptiva del curso:

1. INTRODUCCIÓN A TECNOLOGÍAS BIG DATA, APACHE HADOOP Y APACHE SPARK

  • ¿Qué es Big Data y qué hay de nuevo?
  • Principales tecnologías Big Data.
  • Apache Hadoop: plataforma de almacenamiento y procesamiento de datos.
  • Apache Spark: procesamiento de datos.

2. APACHE HADOOP: CORE.

  • Almacenamiento de datos en Hadoop: HDFS.
  • Gestión de recursos y tareas: YARN.
  • Instalación, administración y monitorización del cluster con Apache Ambari.
  • Seguridad y gobierno de datos.

  3. INGESTA Y TRANSFORMACIÓN DE DATOS EN APACHE HADOOP.

  •  Apache Sqoop: intercambio de datos con bases de datos relacionales.
  • Apache Flume y Apache Kafka: ingesta de datos.
  • Apache Pig: transformación de datos en Hadoop.
  • Herramientas ETL: Informatica PowerCenter, Pentaho Kettle.

4. ACCESO Y EXPLOTACIÓN DE DATOS EN APACHE HADOOP.

  • MapReduce: “antiguo” framework de procesamiento de datos.
  • Apache HBase: NoSQL sobre Hadoop.
  • Apache Hive: SQL sobre Hadoop.
  • Otras tecnologías de SQL sobre Hadoop: Cloudera Impala, Apache Drill, Apache Phoenix.
  • Procesamiento de eventos en tiempo real con Apache Storm.

   5.- APACHE SPARK

  • Introducción a Apache Spark. Spark vs MapReduce vs Tez
  • Introducción a Scala.
  • Conceptos básicos, RDDs, transformaciones y acciones.
  • Desarrollo de aplicaciones con Spark.

    6.- SPARK STREAMING

  • Introducción a Spark Streaming
  • Casos de uso. Apache Storm vs Spark Streaming.
  • Desarrollo de aplicaciones realtime con Spark Streaming.
  • Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 3 meses 
  • Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
  • Durante el curso tendrás que completar 7 temas dedicados, con un total 130 lecciones20 prácticas y 2 exámenes tipo test durante la formación estimados en 25 horas
  • En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
  • Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L. 

Requisitos técnicos:

 

  • Para poder realizar el curso, los alumnos deberán tener experiencia previa en programación Java o similares, así como nociones en bases de datos SQL o similares.
  • Para realizar el curso es necesario contar con un equipo con procesador Intel i7,  con 16 GB de memoria RAM.
  • Para poder completar todas las prácticas del curso se recomienda disponer de un ordenador con VirtualBoxVagrant y el cliente de git instalados en Linux, Windows o Mac OS. Esto permitirá crear de forma automática una máquina virtual para trabajar con MongoDB y otra para trabajar con Hadoop.
  • El curso tiene un coste de 250€ exentos de IVA en modalidad Online

 

 

  • El curso está principalmente orientado a:  
    • Desarrolladores
    • Programadores
    • Analistas de datos

    interesados en conocer el desarrollo Big Data con Hadoop y Spark así como sus posibilidades de implantación:

    Objetivos del curso:

    • Entenderás el conjunto de tecnologías que dan soporte a Big Data y el posicionamiento de cada una.
    • Conocerás y practicarás con los componentes asociados al ecosistema Hadoop: Hive, HDFS, Pig, etc.
    • Conocerás Apache Spark y serás capaz de desarrollar programas de análisis de datos con esta tecnología.
    • En resumen, estarás preparado para participar en un proyecto Big Data real

Culture Lab pone en marcha el Curso de Big Data con Apache Hadoop y Apache Sparkdiseñado por Pablo Panero, Especialista en Big Data y Emilio Sarabia, Consultor en Business Inteligence y Spark.

El curso de Introducción a Big Data está disponible en las siguientes modalidades:

  • Modalidad Online
  • Modalidad Telepresencial
  • Modalidad Presencial

Curso de Big Data con Apache Hadoop y Apache Spark

Confiamos en poder aportar los conocimientos para iniciarnos en Big Data y poder ser capaces de preparar soluciones para la gestión de enormes volúmenes de datos en tiempo real.