Curso de Big Data con AWS
El Cloud Computing está cada vez más presente en el panorama de las IT en proyectos de prácticamente cualquier índole.
Precio: 250€ IVA inc
Características Principales
- Duración: 30 horas
- Elementos: 79 lecciones, 2 exámenes y 16 prácticas
- Precio: 250€ IVA inc
- 10% Descuento a estudiantes y desempleados
- 20% si te inscribes con otra persona
- Bonificable a través de Fundae
Descripción del curso:
Durante el curso, veremos una introducción práctica a la consola de AWS y a los servicios esenciales para comenzar el curso con una base sólida. En paralelo prepararemos puesta en marcha de sistemas Big Data adaptados a nuestras necesidades en cuestión de minutos.
El objetivo principal es dotar al alumno de los conocimientos necesarios para comenzar a trabajar con grandes cantidades de datos en
el ecosistema AWS: analítica en tiempo real, MapReduce, Spark, almacenamiento masivo de datos, etc.
En paralelo, tambíen trabajaremos con sistemas Big Data en el Cloud de Amazon y con sus servicios propietarios (Kinesis, Lambda, etc)
Temario y ficha descriptiva del curso:
Tema 1: Big Data y Cloud Computing
- Lección 1 – Por qué Big Data
- Lección 2 – Por qué Cloud Computing
- Lección 3 – Por qué Cloud Computing II
- Lección 4 – El papel de Hadoop
Tema 2: Primeros Pasos con AWS
- Lección 5 – Un poco de Historia
- Lección 6 – Primeros pasos por la consola
- Lección 7 – Un mar de servicios y regiones aws
- Lección 8 – Computación EC2
- Lección 9 – Computación Lambda
- Lección 10 – Almacenamiento y Bases de Datos – Parte 1
- Lección 11 – Almacenamiento y Bases de Datos – Parte 2
- Lección 12 – Almacenamiento y Bases de Datos – Parte 3
- Lección 13 – Redes
- Lección 14 – Otros servicios esenciales
- Lección 15 – Facturación y cuentas
- Lección 16 – La capa gratiuta
- Lección 17 – Todos para uno
- Lección 18 – Big Data en el ecosistema AWS
- Lección 19 – Demostración sobre IAM y EC2
- Lección 20 – Demostración sobre CLI y S3
- Lección 21 – Demostración sobre terminar recursos
- Ejercicios del Tema 2
- Solución Ejercicios Tema 2
Tema 3: Ingesta de Datos:
- Lección 22 – Introducción
- Lección 23 – Migraciones de datos
- Lección 24 – Primeros pasos con Kinesis
- Lección 25 – Ingesta de datos con Kinesis Streams – Parte 1
- Lección 26 – Ingesta de datos con Kinesis Streams – Parte 2
- Lección 27 – Leyendo datos de Kinesis Streams – Parte 1
- Lección 28 – Leyendo datos de Kinesis Streams – Parte 2
- Lección 29 – IoT
- Lección 30 – SQS
- Lección 31 – Demostración de Kinesis Streams – Parte 1
- Lección 32 – Demostración de Kinesis Streams – Parte 2
- Lección 33 – Demostración de IoT – Parte 1
- Lección 34 – Demostración de IoT – Parte 2
- Ejercicios del Tema 3
- Solución Ejercicios Tema 3
- Primer Examen.
Tema 4: Almacenamiento
- Lección 35 – Introducción
- Lección 36 – Aspectos avanzados y buenas prácticas con S3
- Lección 37 – ¿Por qué data lake con S3?
- Lección 38 – Primeros pasos con DynamoDB
- Lección 40 – Profundizando en DynamoDB – Parte 1
- Lección 39 – Profundizando en DynamoDB – Parte 2
- Lección 41 – Buenas prácticas con DynamoDB
- Lección 42 – Introducción a Redshift
- Lección 43 – Profundizando en Redshift
- Lección 44 – Introducción a Amazon ElasticSearch
- Lección 45 – Primeros pasos con Kinesis firehose
- Lección 46 – Profundizando en Kinesis Firehose
- Lección 47 – Demostración de Kinesis Firehose – Parte 1
- Lección 48 – Demostración de Kinesis Firehose – Parte 2
- Solución Ejercicios Tema 4
Tema 5 Procesamiento y análisis de Datos
- Lección 49 – Introducción
- Lección 50 – Introducción a Apache Hadoop – Parte 1
- Lección 51 – Introducción a Apache Hadoop – Parte 2
- Lección 52 – Primeros pasos con EMR
- Lección 53 – Arquitectura de EMR
- Lección 54 – Configuración de EMR
- Lección 55 – Demostración sobre lanzar un clúster EMR – Parte 1
- Lección 56 – Demostración sobre lanzar un clúster EMR – Parte 2
- Lección 57 – Monitorización de EMR
- Lección 58 – Operaciones sobre EMR
- Lección 59 – Demostración sobre ejecutar MapReduce
- Lección 60 – Demostración del uso de Pig sobre EMR
- Lección 61 – Demostración del uso de Hive sobre EMR – Parte 1
- Lección 62 – Demostración del uso de Hive sobre EMR – Parte 2
- Lección 63 – Demostración de Spark sobre EMR
- Lección 64 – Primeros pasos con AWS Glue
- Lección 65 – Introduccion a AWS Athena
- Lección 66 – Orquestación con DataPipeline
- Lección 67 – Introdicción a Kinesis Analytics
- Lección 68 – Demostración de Kinesis Analytics con CloudFormation
- Ejercicios del Tema 5
- Solución Ejercicios Tema 5
Tema 6 Visualización
- Lección 69 – Introducción
- Lección 70 – Alternativas
- Lección 71 – Introducción a AWS QuickSight – Parte 1
- Lección 72 – Introducción a AWS QuickSight – Parte 2
- Lección 73 – Demostración de AWS Glue – Athena – QuickSight – Parte 1
- Lección 74 – Demostración de AWS Glue – Athena – QuickSight – Parte 2
- Ejercicios del Tema 6
- Solución Ejercicios Tema 6
- Segundo examen
Tema 7: Conclusiones Finales:
- Lección 75 – Buenas prácticas
- Lección 76 – Serverless
- Lección 77 – Arquitecturas de referencia
- Lección 78 – Aún hay más
- Lección 79 – Despedida
- Una vez inscrito en el curso Online, tendrás acceso a todo el contenido durante los próximos 4 meses
- Podrás realizar el curso a través de tu ordenador, móvil o tablet para realizar el curso cómodamente y a tu ritmo
- Durante el curso tendrás que completar 7 temas dedicados, con un total 79 lecciones, 16 prácticas y 2 exámenes tipo test durante la formación estimados en 30 horas.
- En el momento que lo necesites podrás efectuar tus consultas al formador, a través de correo electrónico, para resolver tus dudas relativas al curso.
- Una vez finalizada la formación, te enviaremos un Certificado del curso emitido por Culture Lab TS S.L.
- No es necesario (aunque si recomendable) tener conocimientos previos o experiencia profesional con Big Data ni Amazon Web Services. El curso se inicia con varias lecciones dedicadas a realizar una introducción elemental en ambos campos.
- El curso está dirigido a todo tipo de perfiles que puedan verse involucrados en el diseño/mantenimiento de sistemas Big Data en la nube de Amazon. Aunque tiene un carácter técnico predominante, orientado a perfiles como desarrolladores, DBA, administradores de sistemas, personal científico de datos, etc. el curso puede ser de interés para consultores y analistas de negocio.
- Igualmente, aunque no es imprescindible, es recomendable conocer alguno de los lenguajes más empleados en ecosistemas Big Data: Java, Scala, Python al igual que tener nociones básicas de SQL. Veremos ejemplos en Java (mayormente), Scala, Python y SQL. Igualmente, se realizarán demostraciones empleando la línea de comandos (siempre sobre Linux) por lo que sería recomendable tener conocimientos previos básicos de shell script
Requisitos técnicos:
- Aunque no es imprescindible para poder seguir el curso, tener una cuenta en AWS es necesario para poder completar los ejercicios. Se explicarán las características de la capa gratuita para evitar costes innecesarios.
- Para poder seguir los ejercicios y demostraciones de este curso bastará con un equipo (Linux, Mac o Windows) con conexión a internet. Las demostraciones se realizarán directamente sobre AWS mediante la consola gráfica a través del navegador o mediante conexión SSH por lo que tan solo PuTTy será necesario para el caso de alumnos con que empleen Windows.
- Realizaremos varias demostraciones con Eclipse y la herramienta / plugin AWS Toolkit por lo que su descarga e instalación serán necesarias para aquellos alumnos que deseen ejecutar los ejemplos por su cuenta.
- El curso tiene un coste de 250€ exentos de IVA en modalidad Online
Procedimiento:
Una vez abonado el curso, en un plazo de 3 días laborales se enviará al alumno un acceso de usuario y contraseña para poder iniciar el curso y descargar los contenidos del mismo durante su desarrollo.
- Aunque es preferible tener algo de experiencia en el ecosistema AWS, se dedicarán algunas lecciones iniciales para realizar una introducción práctica a la consola de AWS y a los servicios esenciales para comenzar el curso con una base sólida.
- Ilustrar las bondades de trabajar con servicios gestionados bajo demanda que permiten la puesta en marcha de sistemas Big Data adaptados a nuestras necesidades en cuestión de minutos.
- Ofrecer al alumno los conocimientos necesarios para comenzar a trabajar con grande cantidades de datos en el ecosistema AWS: analítica en tiempo real, Map&Reduce, almacenamiento, etc.
- Adquirir los conocimientos necesarios para comenzar a trabajar en sistemas Big Data en el cloud de Amazon tanto con sus servicios propietarios (Kinesis, Lambda, DynamoDB, RDS, EMR, Quicksight, etc.) como con otras herramientas open source como Hadoop, Spark, Sqook, Hive, MySQL, entre otras.
- Enseñar a los alumnos una visión de alto nivel dentro de AWS focalizado en Big Data con el fin de que adquiera los conocimientos necesarios para por decidir con criterio qué herramienta / solución es la más adecuada ante un problema dado en función de las exigencias de nuestro problema: tamaño de los datos, velocidad de procesado necesaria, volúmenes estimados, etc.
- Ilustrar mediante casos de uso reales el funcionamiento de los servicios mencionados así como las integraciones más interesantes entre ellos.
Culture Lab pone en marcha el Curso de Big Data con AWS en Modalidad Online, diseñado por Moisés Franco Picardo, formador especialista en BigData y Certificado en Amazon Web Services en Culture Lab TS S.L.
Moisés – Especialista en AWS y Big Data
- Modalidad Online
Curso de Big Data con AWS
Este curso pretende ser una base muy sólida como punto de partida de cualquier profesional que pretenda iniciar, evolucionar o migrar sistemas Big Data al Cloud de Amazon