BigData con Apache Hadoop y Apache Spark
Aprende Big Data a través de dos de sus principales herramientas para el análisis de datos
Características Principales
- Duración: 30 horas
- Elementos: 130 lecciones, 2 exámenes y 20 prácticas
- Precio: 250€ IVA inc
- 10% Descuento a participantes en los talleres gratuitos de Culture Lab
- 15% Descuento a estudiantes y desempleados
- 20% si te inscribes con otra persona
Descripción del curso:
El presente curso buscar dotar al alumno del uso de las diferentes técnicas de ingesta masiva así como gestión de datos en tiempo real con Big Data a través de Apache Hadoop, una herramienta de creación de soluciones distribuidas a través de nodos así como el uso y aprendizaje de Open Source de Spark para la optimización de la velocidad de los datos.
Está principalmente orientado a personas con experiencia en programación en torno a objetos y nociones en bases de datos que quieran profundizar en el uso práctico de Big Data a través de numerosas prácticas y ejercicios.
Temario y ficha descriptiva del curso:
1. INTRODUCCIÓN A TECNOLOGÍAS BIG DATA, APACHE HADOOP Y APACHE SPARK
- ¿Qué es Big Data y qué hay de nuevo?
- Principales tecnologías Big Data.
- Apache Hadoop: plataforma de almacenamiento y procesamiento de datos.
- Apache Spark: procesamiento de datos.
2. APACHE HADOOP: CORE.
- Almacenamiento de datos en Hadoop: HDFS.
- Gestión de recursos y tareas: YARN.
- Instalación, administración y monitorización del cluster con Apache Ambari.
- Seguridad y gobierno de datos.
3. INGESTA Y TRANSFORMACIÓN DE DATOS EN APACHE HADOOP.
- Apache Sqoop: intercambio de datos con bases de datos relacionales.
- Apache Flume y Apache Kafka: ingesta de datos.
- Apache Pig: transformación de datos en Hadoop.
- Herramientas ETL: Informatica PowerCenter, Pentaho Kettle.
4. ACCESO Y EXPLOTACIÓN DE DATOS EN APACHE HADOOP.
- MapReduce: “antiguo” framework de procesamiento de datos.
- Apache HBase: NoSQL sobre Hadoop.
- Apache Hive: SQL sobre Hadoop.
- Otras tecnologías de SQL sobre Hadoop: Cloudera Impala, Apache Drill, Apache Phoenix.
- Procesamiento de eventos en tiempo real con Apache Storm.
5.- APACHE SPARK
- Introducción a Apache Spark. Spark vs MapReduce vs Tez
- Introducción a Scala.
- Conceptos básicos, RDDs, transformaciones y acciones.
- Desarrollo de aplicaciones con Spark.
6.- SPARK STREAMING
- Introducción a Spark Streaming
- Casos de uso. Apache Storm vs Spark Streaming.
- Desarrollo de aplicaciones realtime con Spark Streaming.
- Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 3 meses
- Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
- Durante el curso tendrás que completar 7 temas dedicados, con un total 130 lecciones, 20 prácticas y 2 exámenes tipo test durante la formación estimados en 25 horas
- En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
- Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L.
Requisitos técnicos:
- Para poder realizar el curso, los alumnos deberán tener experiencia previa en programación Java o similares, así como nociones en bases de datos SQL o similares.
- Para realizar el curso es necesario contar con un equipo con procesador Intel i7, con 16 GB de memoria RAM.
- Para poder completar todas las prácticas del curso se recomienda disponer de un ordenador con VirtualBox, Vagrant y el cliente de git instalados en Linux, Windows o Mac OS. Esto permitirá crear de forma automática una máquina virtual para trabajar con MongoDB y otra para trabajar con Hadoop.
- El curso tiene un coste de 250€ exentos de IVA en modalidad Online
- El curso está principalmente orientado a:
- Desarrolladores
- Programadores
- Analistas de datos
interesados en conocer el desarrollo Big Data con Hadoop y Spark así como sus posibilidades de implantación:
Objetivos del curso:
- Entenderás el conjunto de tecnologías que dan soporte a Big Data y el posicionamiento de cada una.
- Conocerás y practicarás con los componentes asociados al ecosistema Hadoop: Hive, HDFS, Pig, etc.
- Conocerás Apache Spark y serás capaz de desarrollar programas de análisis de datos con esta tecnología.
- En resumen, estarás preparado para participar en un proyecto Big Data real
Culture Lab pone en marcha el Curso de Big Data con Apache Hadoop y Apache Spark, diseñado por Pablo Panero, Especialista en Big Data y Emilio Sarabia, Consultor en Business Inteligence y Spark.
El curso de Introducción a Big Data está disponible en las siguientes modalidades:
- Modalidad Online
- Modalidad Telepresencial
- Modalidad Presencial
Curso 100% orientado a Programadores
Confiamos en poder aportar los conocimientos para iniciarnos en Big Data y poder ser capaces de preparar soluciones para la gestión de enormes volúmenes de datos en tiempo real.