Introducción a Big Data con MongoDB y Hadoop
Aprende las técnicas de control de datos masivos con Big Data
Precio: 100€ IVA inc
Características Principales
- Duración: 18 horas
- Elementos: 73 lecciones, 2 exámenes y 15 prácticas
- Precio: 100€ IVA inc
- 15% Descuento a estudiantes y desempleados
- 20% si te inscribes con otra persona
- Bonificable a través de Fundae
Descripción del curso:
Durante el curso, se efectuará un estudio de las funcionalidades principales de MongoDB y Hadoop utilizando máquinas virtuales y explorando las herramientas de Big Data destinadas al análisis de grandes conjuntos de datos. El curso está pensado para técnicos, analistas, programadores, y todos aquellos interesados en la gestión de la información con Big Data desde un punto de vista práctico.
Se requiere experiencia previa en programación orientada a objetos como Java, o similares y nociones en bases de datos para poder realizar el curso.


Temario y ficha descriptiva del curso:
Tema 1: Introducción a Big Data
- Lección 1º Introducción a Big Data
- Lección 2º El desafío Big Data
- Lección 3º El círculo virtuoso de Big Data
- Lección 4º La evolución del almacenamiento
- Lección 5º La situación actual del Big Data
- Lección 6º Las cuatro uves del Big Data
- Lección 7º Las soluciones del Big Data
- Lección 8º El Big Data operacional (Abierta)
- Lección 9º El Big Data Analítico
- Lección 10º Comparativa entre soluciones
- Lección 11º Las bases de datos Nosql
- Lección 12º Diferentes tipos de bases de datos
- Lección 13º Desventajas de la NoSQL
- Lección 14º Modelos de programación para Big Data
- Lección 15º Accediendo al entorno de prácticas
- Presentación del Software para la ejecución de MongoDB y Hadoop
- Ejercicios del Tema 1
- Resolución de ejercicios del Tema 1
Tema 2 Big Data operacional con MongoDB
- Lección 16º Organización de los datos
- Lección 17º Demostración con MongoDB
- Lección 18º El manejo básico de los datos
- Lección 19º Segunda demostración con MongoDB
- Lección 20º Acceso a los datos a través de métodos de escritura
- Lección 21º Listas y subcontenidos en MongoDB
- Lección 22º Funciones de los operadores
- Lección 23º Procedimientos de escritura
- Lección 24º Tipos de operadores para la actualización
- Lección 25º Manejo de datos básico con MongoDB
- Lección 26º Avanzando en el manejo de los datos
- Lección 27º Avanzando en el manejo de los datos (2º Parte)
- Ejercicios del Tema 2
- Resolución de ejercicios del Tema 2
Tema 3 Agregación de los datos
- Lección 28º Agregación de datos con MapReduce
- Lección 29º Operaciones de salida del MapReduce
- Lección 30º Agregación Framework
- Lección 31º Diversos tipos de operadores
- Lección 32º Demostración: Herramientas de agregación en MongoDB
Tema 4 Arquitectura de una solución MongoDB
- Lección 33º Arquitectura de una solución
- Lección 34º Índices compuestos y multiclave
- Lección 35º Índices avanzados
- Lección 36º El modelado de datos (Abierta)
- Lección 37º Claves para modelar bases de datos en MongoDB
- Lección 38º La replicación de los datos
- Lección 39º Factores determinantes de los servidores
- Lección 40º Transferencia y replicación de los datos
- Lección 41º La distribución de los datos
- Lección 42º La distribución de los datos con Sharding
- Lección 43º Demostración práctica de los Shard
- Ejercicios del Tema 4º
- Resolución de ejercicios del Tema 4º
- Examen A: Desarrollo con MongoDB
Tema 5 Big Data con Hadoop
- Lección 45º Características de Hadoop
- Lección 46º Ventajas principales de Hadoop
- Lección 47º El sistema de ficheros distribuido
- Lección 48º Componentes del MapReduce
- Lección 49º La historia de Hadoop
- Lección 50º El ecosistema Hadoop
Tema 6 Desarrollo con Hadoop básico
- Lección 51º Introducción al desarrollo
- Lección 52º Ficheros de configuración
- Lección 53º Modos de ejecución y ficheros distribuidos
- Lección 54º Creación y ejecución de trabajos
- Lección 55º Demostración de Hadoop – Parte 1
- Lección 56º Demostración de Hadoop – Parte 2 (Abierta)
- Lección 57º Demostración de Hadoop – Parte 3
- Lección 58º Ejecución de las tareas
- Lección 59º Ejecución y demostración con Reduce
- Lección 60º Combinación y manejo de los datos
- Lección 61º Orden secundario y contadores
- Lección 62º Librerías de clases con funcionalidades comunes
- Lección 63º Interfaz para múltiples lenguajes
- Lección 64º Demostración MapReduce con Hadoop Streaming
- Ejercicios del Tema 6
- Resolución de ejercicios del Tema 6
Tema 7 El ecosistema Hadoop
- Lección 65º Ecosistema Hadoop
- Lección 66º Las operaciones de Pig Latin
- Lección 67º Descubriendo Hive
- Lección 68º Demostración con Pig y Hive
- Lección 69º Programación basada en tuberías
- Lección 70º Apache Spark y elección de Herramientas
- Lección 71º Consultas de datos en HBase
- Lección 72º El proyecto Mahout
- Lección 73º Proyecto Oozie y Apache Storm
- Examen B: Desarrollo con Hadoop
- Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 3 meses
- Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
- Durante el curso tendrás que completar 7 temas dedicados, con un total 73 lecciones, 15 prácticas y 2 exámenes tipo test durante la formación estimados en 18 horas
- En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
- Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L.
- Para poder realizar el curso, los alumnos deberán tener experiencia previa en programación Java o similares, así como nociones en bases de datos SQL o similares.
Requisitos técnicos (Alumnos Telepresenciales):
- Los alumnos Telepresenciales deberán disponer de conexión a internet y micrófono durante las sesiones del curso.
- Los alumnos se descargarán el acceso a la plataforma telepresencial que les enviaremos tras su inscripción.
- Para realizar el curso es necesario contar con un equipo Intel i3, con 4 GB de memoria mínimo, aunque se recomienda utilizar un equipo i5 o i7 con 8 GB de RAM y acceso a Internet.
- Para poder completar todas las prácticas del curso se recomienda disponer de un ordenador con VirtualBox, Vagrant y el cliente de git instalados en Linux, Windows o Mac OS. Esto permitirá crear de forma automática una máquina virtual para trabajar con MongoDB y otra para trabajar con Hadoop.
- El curso tiene un coste de 100€ exentos de IVA en modalidad Online
Descuentos y promociones: 10% de descuento en ambas modalidades para:
- Estudiantes
- Personas en situación de desempleo.
- Personas que realicen una inscripción directa, abonando el curso con al menos 15 días de antelación al comienzo del curso.
(Los descuentos presentados no son acumulables)
- Conocer las características básicas de los escenarios Big Data y ser capaz de elegir qué tecnologías utilizar en cada caso.
- Dominar las capacidades básicas de manejo de datos en MongoDB.
- Ser capaz de diseñar el modelo de datos y la infraestructura de una solución Big Data basada en MongoDB.
- Conocer el paradigma de programación y los componentes básicos de Hadoop.
- Saber qué proyectos pertenecientes al ecosistema Hadoop utilizar para alcanzar la mejor solución para un problema dado.
Culture Lab pone en marcha el Curso de Introducción a Big Data con MongoDB y Hadoop en Modalidad Online, diseñado por Juan José Sánchez Peña, Doctor en Informática, profesor en informática de la UAM, y formador especialista en BigData en Culture Lab TS S.L. https://vimeo.com/158066367
El curso de Introducción a Big Data está disponible en las siguientes modalidades:
- Modalidad Online
- Modalidad Telepresencial
- Modalidad Presencial
Curso 100% orientado a Programadores
Confiamos en poder aportar los conocimientos para iniciarnos en Big Data y poder ser capaces de preparar soluciones para la gestión de enormes volúmenes de datos en tiempo real.