BigData con Apache Hadoop y Apache Spark

Aprende Big Data a través de dos de sus principales herramientas para el análisis de datos

Características Principales

  • Duración: 25 horas
  • Elementos: 130 lecciones, 2 exámenes y 20 prácticas
  • Precio: 250€ IVA inc
  • Alumnos matriculados:187 Inscritos
  • valoración del curso: 4,91

Hadoop y Spark componen una simbiosis perfecta para desarrollar tus proyectos BigData de alto nivel

Aprende cuando y donde quieras

Te ofrecemos una modalidad flexible para que te adaptes mejor a tus necesidades de formación a tu ritmo.

Certificado de formación

El aumento de tus competencias en Big Data a través de nuestros títulos te facilitarán la búsqueda de puestos de trabjo

Curso Bonificable

Si eres autónomo, trabajador o empresa puedes bonificar tu curso a través de la Fundación Estatal para el Empleo.

Orientado a la práctica

El curso está pensado para obtener una toma de contacto a nivel práctico de algunas de las principales herramientas de Big Data

Historial del curso
  • Curso editado en diciembre de 2016
  • Primera actualización en julio de 2018
  • Siguiente actualización prevista para enero de 2019

Temario y ficha descriptiva del curso:

1. INTRODUCCIÓN A TECNOLOGÍAS BIG DATA, APACHE HADOOP Y APACHE SPARK

  • ¿Qué es Big Data y qué hay de nuevo?
  • Principales tecnologías Big Data.
  • Apache Hadoop: plataforma de almacenamiento y procesamiento de datos.
  • Apache Spark: procesamiento de datos.

2. APACHE HADOOP: CORE.

  • Almacenamiento de datos en Hadoop: HDFS.
  • Gestión de recursos y tareas: YARN.
  • Instalación, administración y monitorización del cluster con Apache Ambari.
  • Seguridad y gobierno de datos.

  3. INGESTA Y TRANSFORMACIÓN DE DATOS EN APACHE HADOOP.

  •  Apache Sqoop: intercambio de datos con bases de datos relacionales.
  • Apache Flume y Apache Kafka: ingesta de datos.
  • Apache Pig: transformación de datos en Hadoop.
  • Herramientas ETL: Informatica PowerCenter, Pentaho Kettle.

4. ACCESO Y EXPLOTACIÓN DE DATOS EN APACHE HADOOP.

  • MapReduce: “antiguo” framework de procesamiento de datos.
  • Apache HBase: NoSQL sobre Hadoop.
  • Apache Hive: SQL sobre Hadoop.
  • Otras tecnologías de SQL sobre Hadoop: Cloudera Impala, Apache Drill, Apache Phoenix.
  • Procesamiento de eventos en tiempo real con Apache Storm.

   5.- APACHE SPARK

  • Introducción a Apache Spark. Spark vs MapReduce vs Tez
  • Introducción a Scala.
  • Conceptos básicos, RDDs, transformaciones y acciones.
  • Desarrollo de aplicaciones con Spark.

    6.- SPARK STREAMING

  • Introducción a Spark Streaming
  • Casos de uso. Apache Storm vs Spark Streaming.
  • Desarrollo de aplicaciones realtime con Spark Streaming.
  • Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 3 meses 
  • Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
  • Durante el curso tendrás que completar 7 temas dedicados, con un total 130 lecciones20 prácticas y 2 exámenes tipo test durante la formación estimados en 25 horas
  • En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
  • Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L. 

Requisitos técnicos:

 

  • Para poder realizar el curso, los alumnos deberán tener experiencia previa en programación Java o similares, así como nociones en bases de datos SQL o similares.
  • Para realizar el curso es necesario contar con un equipo con procesador Intel i7,  con 16 GB de memoria RAM.
  • Para poder completar todas las prácticas del curso se recomienda disponer de un ordenador con VirtualBoxVagrant y el cliente de git instalados en Linux, Windows o Mac OS. Esto permitirá crear de forma automática una máquina virtual para trabajar con MongoDB y otra para trabajar con Hadoop.
  • El curso tiene un coste de 250€ exentos de IVA en modalidad Online

 

 

  • El curso está principalmente orientado a:  
    • Desarrolladores
    • Programadores
    • Analistas de datos

    interesados en conocer el desarrollo Big Data con Hadoop y Spark así como sus posibilidades de implantación:

    Objetivos del curso:

    • Entenderás el conjunto de tecnologías que dan soporte a Big Data y el posicionamiento de cada una.
    • Conocerás y practicarás con los componentes asociados al ecosistema Hadoop: Hive, HDFS, Pig, etc.
    • Conocerás Apache Spark y serás capaz de desarrollar programas de análisis de datos con esta tecnología.
    • En resumen, estarás preparado para participar en un proyecto Big Data real

Culture Lab pone en marcha el Curso de Big Data con Apache Hadoop y Apache Sparkdiseñado por Pablo Panero, Especialista en Big Data y Emilio Sarabia, Consultor en Business Inteligence y Spark.

El curso de Introducción a Big Data está disponible en las siguientes modalidades:

  • Modalidad Online
  • Modalidad Telepresencial
  • Modalidad Presencial

Curso 100% orientado a Programadores

Confiamos en poder aportar los conocimientos para iniciarnos en Big Data y poder ser capaces de preparar soluciones para la gestión  de enormes volúmenes de datos en tiempo real.