BigData con Apache Hadoop y Apache Spark

Aprende Big Data a través de dos de sus principales herramientas para el análisis de datos

El presente curso buscar dotar al alumno del uso de las diferentes técnicas de ingesta masiva así como gestión de datos en tiempo real con Big Data a través de Apache Hadoop, una herramienta de creación de soluciones distribuidas a través de nodos así como el uso y aprendizaje de Open Source de Spark para la optimización de la velocidad de los datos.

Está principalmente orientado a personas con experiencia en programación en torno a objetos y nociones en bases de datos que quieran profundizar en el uso práctico de Big Data a través de numerosas prácticas y ejercicios. 

Características Principales

  • Duración: 30 horas
  • Elementos: 130 lecciones, 2 exámenes y 20 prácticas
  • Precio: 250€ IVA inc
  • 10% Descuento a participantes en los talleres gratuitos de Culture Lab
  • 15% Descuento a estudiantes y desempleados
  • 20% si te inscribes con otra persona

Hadoop y Spark componen una simbiosis perfecta para desarrollar tus proyectos BigData de alto nivel

Bonifica tu curso

Certificado y Bolsa de Empleo

Prácticas y exámenes incluidos 

Temario y ficha descriptiva del curso:

1. INTRODUCCIÓN A TECNOLOGÍAS BIG DATA, APACHE HADOOP Y APACHE SPARK

  • ¿Qué es Big Data y qué hay de nuevo?
  • Principales tecnologías Big Data.
  • Apache Hadoop: plataforma de almacenamiento y procesamiento de datos.
  • Apache Spark: procesamiento de datos.

2. APACHE HADOOP: CORE.

  • Almacenamiento de datos en Hadoop: HDFS.
  • Gestión de recursos y tareas: YARN.
  • Instalación, administración y monitorización del cluster con Apache Ambari.
  • Seguridad y gobierno de datos.

  3. INGESTA Y TRANSFORMACIÓN DE DATOS EN APACHE HADOOP.

  •  Apache Sqoop: intercambio de datos con bases de datos relacionales.
  • Apache Flume y Apache Kafka: ingesta de datos.
  • Apache Pig: transformación de datos en Hadoop.
  • Herramientas ETL: Informatica PowerCenter, Pentaho Kettle.

4. ACCESO Y EXPLOTACIÓN DE DATOS EN APACHE HADOOP.

  • MapReduce: “antiguo” framework de procesamiento de datos.
  • Apache HBase: NoSQL sobre Hadoop.
  • Apache Hive: SQL sobre Hadoop.
  • Otras tecnologías de SQL sobre Hadoop: Cloudera Impala, Apache Drill, Apache Phoenix.
  • Procesamiento de eventos en tiempo real con Apache Storm.

   5.- APACHE SPARK

  • Introducción a Apache Spark. Spark vs MapReduce vs Tez
  • Introducción a Scala.
  • Conceptos básicos, RDDs, transformaciones y acciones.
  • Desarrollo de aplicaciones con Spark.

    6.- SPARK STREAMING

  • Introducción a Spark Streaming
  • Casos de uso. Apache Storm vs Spark Streaming.
  • Desarrollo de aplicaciones realtime con Spark Streaming.
  • Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 3 meses 
  • Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
  • Durante el curso tendrás que completar 7 temas dedicados, con un total 130 lecciones20 prácticas y 2 exámenes tipo test durante la formación estimados en 25 horas
  • En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
  • Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L. 

Requisitos técnicos:

 

  • Para poder realizar el curso, los alumnos deberán tener experiencia previa en programación Java o similares, así como nociones en bases de datos SQL o similares.
  • Para realizar el curso es necesario contar con un equipo con procesador Intel i7,  con 16 GB de memoria RAM.
  • Para poder completar todas las prácticas del curso se recomienda disponer de un ordenador con VirtualBoxVagrant y el cliente de git instalados en Linux, Windows o Mac OS. Esto permitirá crear de forma automática una máquina virtual para trabajar con MongoDB y otra para trabajar con Hadoop.
  • El curso tiene un coste de 250€ exentos de IVA en modalidad Online

 

 

  • El curso está principalmente orientado a:  
    • Desarrolladores
    • Programadores
    • Analistas de datos

    interesados en conocer el desarrollo Big Data con Hadoop y Spark así como sus posibilidades de implantación:

    Objetivos del curso:

    • Entenderás el conjunto de tecnologías que dan soporte a Big Data y el posicionamiento de cada una.
    • Conocerás y practicarás con los componentes asociados al ecosistema Hadoop: Hive, HDFS, Pig, etc.
    • Conocerás Apache Spark y serás capaz de desarrollar programas de análisis de datos con esta tecnología.
    • En resumen, estarás preparado para participar en un proyecto Big Data real

Culture Lab pone en marcha el Curso de Big Data con Apache Hadoop y Apache Sparkdiseñado por Pablo Panero, Especialista en Big Data y Emilio Sarabia, Consultor en Business Inteligence y Spark.

El curso de Introducción a Big Data está disponible en las siguientes modalidades:

  • Modalidad Online
  • Modalidad Telepresencial
  • Modalidad Presencial

Curso 100% orientado a Programadores

Confiamos en poder aportar los conocimientos para iniciarnos en Big Data y poder ser capaces de preparar soluciones para la gestión de enormes volúmenes de datos en tiempo real.