Introducción a Big Data con MongoDB y Hadoop

Aprende las técnicas de control de datos masivos con Big Data

Precio: 100€ IVA inc

Características Principales

  • Duración: 18 horas
  • Elementos: 73 lecciones, 2 exámenes y 15 prácticas
  • Precio: 100€ IVA inc
  • 15% Descuento a estudiantes y desempleados
  • 20% si te inscribes con otra persona
  • Bonificable a través de Fundae

Descripción del curso:

 

Durante el curso, se efectuará un estudio de las funcionalidades principales de MongoDB y Hadoop utilizando máquinas virtuales y explorando las herramientas de Big Data destinadas al análisis de grandes conjuntos de datos. El curso está pensado para técnicos, analistas, programadores, y todos aquellos interesados en la gestión de la información con Big Data desde un punto de vista práctico.

Se requiere experiencia previa en programación orientada a objetos como Java, o similares y nociones en bases de datos para poder realizar el curso.

Convocatoria abierta

Prácticas y exámenes

Certificado del curso

Bolsa activa de empleo

Bonificable a través de Fundae

Temario y ficha descriptiva del curso:

 

Tema 1: Introducción a Big Data

  • Lección 1º Introducción a Big Data
  • Lección 2º El desafío Big Data
  • Lección 3º El círculo virtuoso de Big Data
  • Lección 4º La evolución del almacenamiento
  • Lección 5º La situación actual del Big Data
  • Lección 6º Las cuatro uves del Big Data
  • Lección 7º Las soluciones del Big Data
  • Lección 8º El Big Data operacional (Abierta)
  • Lección 9º El Big Data Analítico
  • Lección 10º Comparativa entre soluciones
  • Lección 11º Las bases de datos Nosql
  • Lección 12º Diferentes tipos de bases de datos
  • Lección 13º Desventajas de la NoSQL
  • Lección 14º Modelos de programación para Big Data
  • Lección 15º Accediendo al entorno de prácticas
  • Presentación del Software para la ejecución de MongoDB y Hadoop
  • Ejercicios del Tema 1
  • Resolución de ejercicios del Tema 1

 

 

Tema 2 Big Data operacional con MongoDB

  • Lección 16º Organización de los datos
  • Lección 17º Demostración con MongoDB
  • Lección 18º El manejo básico de los datos
  • Lección 19º Segunda demostración con MongoDB
  • Lección 20º Acceso a los datos a través de métodos de escritura
  • Lección 21º Listas y subcontenidos en MongoDB
  • Lección 22º Funciones de los operadores
  • Lección 23º Procedimientos de escritura
  • Lección 24º Tipos de operadores para la actualización
  • Lección 25º Manejo de datos básico con MongoDB
  • Lección 26º Avanzando en el manejo de los datos
  • Lección 27º Avanzando en el manejo de los datos (2º Parte)
  • Ejercicios del Tema 2
  • Resolución de ejercicios del Tema 2

 

Tema 3 Agregación de los datos

  • Lección 28º Agregación de datos con MapReduce
  • Lección 29º Operaciones de salida del MapReduce
  • Lección 30º Agregación Framework
  • Lección 31º Diversos tipos de operadores
  • Lección 32º Demostración: Herramientas de agregación en MongoDB

 

 

Tema 4 Arquitectura de una solución MongoDB

  • Lección 33º Arquitectura de una solución
  • Lección 34º Índices compuestos y multiclave
  • Lección 35º Índices avanzados
  • Lección 36º El modelado de datos (Abierta)
  • Lección 37º Claves para modelar bases de datos en MongoDB
  • Lección 38º La replicación de los datos
  • Lección 39º Factores determinantes de los servidores
  • Lección 40º Transferencia y replicación de los datos
  • Lección 41º La distribución de los datos
  • Lección 42º La distribución de los datos con Sharding
  • Lección 43º Demostración práctica de los Shard
  • Ejercicios del Tema 4º
  • Resolución de ejercicios del Tema 4º
  • Examen A: Desarrollo con MongoDB

 

Tema 5 Big Data con Hadoop

  • Lección 45º Características de Hadoop
  • Lección 46º Ventajas principales de Hadoop
  • Lección 47º El sistema de ficheros distribuido
  • Lección 48º Componentes del MapReduce
  • Lección 49º La historia de Hadoop
  • Lección 50º El ecosistema Hadoop

 

Tema 6 Desarrollo con Hadoop básico

  • Lección 51º Introducción al desarrollo
  • Lección 52º Ficheros de configuración
  • Lección 53º Modos de ejecución y ficheros distribuidos 
  • Lección 54º Creación y ejecución de trabajos
  • Lección 55º Demostración de Hadoop – Parte 1
  • Lección 56º Demostración de Hadoop – Parte 2 (Abierta)
  • Lección 57º Demostración de Hadoop – Parte 3
  • Lección 58º Ejecución de las tareas
  • Lección 59º Ejecución y demostración con Reduce
  • Lección 60º Combinación y manejo de los datos
  • Lección 61º Orden secundario y contadores
  • Lección 62º Librerías de clases con funcionalidades comunes
  • Lección 63º Interfaz para múltiples lenguajes
  • Lección 64º Demostración MapReduce con Hadoop Streaming
  • Ejercicios del Tema 6
  • Resolución de ejercicios del Tema 6

Tema 7 El ecosistema Hadoop

  • Lección 65º Ecosistema Hadoop
  • Lección 66º Las operaciones de Pig Latin
  • Lección 67º Descubriendo Hive
  • Lección 68º Demostración con Pig y Hive
  • Lección 69º Programación basada en tuberías
  • Lección 70º Apache Spark y elección de Herramientas
  • Lección 71º Consultas de datos en HBase
  • Lección 72º El proyecto Mahout
  • Lección 73º Proyecto Oozie y Apache Storm
  •  Examen B: Desarrollo con Hadoop

 

Descargar temario en PDF:

  • Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 3 meses 
  • Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
  • Durante el curso tendrás que completar 7 temas dedicados, con un total 73 lecciones15 prácticas y 2 exámenes tipo test durante la formación estimados en 18 horas
  • En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
  • Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L. 
  • Para poder realizar el curso, los alumnos deberán tener experiencia previa en programación Java o similares, así como nociones en bases de datos SQL o similares.

Requisitos técnicos (Alumnos Telepresenciales):

  • Los alumnos Telepresenciales deberán disponer de conexión a internet y micrófono durante las sesiones del curso.
  • Los alumnos se descargarán el acceso a la plataforma telepresencial que les enviaremos tras su inscripción.
  • Para realizar el curso es necesario contar con un equipo Intel i3,  con 4 GB de memoria mínimo, aunque se recomienda utilizar un equipo i5 o i7 con 8 GB de RAM y acceso a Internet.
  • Para poder completar todas las prácticas del curso se recomienda disponer de un ordenador con VirtualBoxVagrant y el cliente de git instalados en Linux, Windows o Mac OS. Esto permitirá crear de forma automática una máquina virtual para trabajar con MongoDB y otra para trabajar con Hadoop.
  • El curso tiene un coste de 100€ exentos de IVA en modalidad Online

Descuentos y promociones: 10% de descuento en ambas modalidades para: 

  • Estudiantes
  • Personas en situación de desempleo.
  • Personas que realicen una inscripción directa, abonando el curso con al menos 15 días de antelación al comienzo del curso.

(Los descuentos presentados no son acumulables)

  • Conocer las características básicas de los escenarios Big Data y ser capaz de elegir qué tecnologías utilizar en cada caso.
  • Dominar las capacidades básicas de manejo de datos en MongoDB.
  • Ser capaz de diseñar el modelo de datos y la infraestructura de una solución Big Data basada en MongoDB.
  • Conocer el paradigma de programación y los componentes básicos de Hadoop.
  • Saber qué proyectos pertenecientes al ecosistema Hadoop utilizar para alcanzar la mejor solución para un problema dado.

Culture Lab pone en marcha el Curso de Introducción a Big Data con MongoDB y Hadoop en Modalidad Online, diseñado por Juan José Sánchez Peña, Doctor en Informática, profesor en informática de la UAM, y formador especialista en BigData en Culture Lab TS S.L. https://vimeo.com/158066367

El curso de Introducción a Big Data está disponible en las siguientes modalidades:

  • Modalidad Online
  • Modalidad Telepresencial
  • Modalidad Presencial

Curso 100% orientado a Programadores

Confiamos en poder aportar los conocimientos para iniciarnos en Big Data y poder ser capaces de preparar soluciones para la gestión  de enormes volúmenes de datos en tiempo real.