Módulo que busca entregrar competencias prácticas del ecosistema de herramientas Big Data. Se busca que los estudiantes puedan clasificar los problemas de Big Data según sus características y dimensionar según su volumen. Además podrán escoger las estrategias y herramientas adecuadas para procesar los datos dependiendo de su volumen, utilizando herramientas como Hadoop, Apache Spark y los servicios distribuidos en las nube de Amazon, para analizar grandes flujos de datos sin las limitaciones de un ambiente centralizado. Es parte de nuestra Carrera Data Science. En 7 semanas aprenderás a usar herramientas de AWS para implementar soluciones Big Data.
Conocerás los conceptos y herramientas fundamentales asociados a Big Data así como la importancia del análisis de algoritmo.
Conocerás los principales componentes del ecosistema Hadoop. Durante el curso se utilizan las principales operaciones de HDFS, conocer el rol de Sqoop para transferir datos desde una RDBMS a HDFS y se conoce el funcionamiento y objetivos de Hive.
Durante el curso se trabajará con la herramienta Spark en el lenguaje PySpark. Se desarrollan competencias para realizar transformaciones y acciones en RDD, conocer distintos componentes de la API de Spark y los modos de trabajo con un objeto DataFrame
Trabajaremos con la nube de Amazon principalmente con instancias de la herramienta ElasticMapReduce (EMR). Se habilitarán notebooks de Jupyter desde la instancia AWS EMR y se generar buckets de almacenamiento utilizando AWS S3.
Revisarán los casos de uso de las librerías MLlib y ML. Implementaremos algoritmos de Machine Learning en Spark
*Más información
Al completar el cursos podrás utilizar Hadoop en un ambiente centralizado para generar soluciones prototipos a un problema Big Data, aprenderás herramientas como HDFS, Hive y Sqoop. Podrás crear instancias en Amazon Web Services para generar un cluster y aplicar la soluciones creadas previamente en el entorno local para trabajar con grandes cantidades de datos. Podrás aplicar soluciones utilizando Apache Spark, tanto para la manipulación de data como para implementación de modelos de Machine Learning.
Revisa el detalle de los contenidos, metodología educacional, formato de clases.
¡Descárgalo!¿Tienes dudas? ¿No sabes qué hacer? ¿No entiendes los conceptos? Solicita el contacto de un consejero para que te guíe y resuelva todas tus preguntas.
¡Contactar!.Fabiola Aravena{ Entregan buenas herramientas para desarrollar nuevas habilidades. }
.Gustavo Majano{ Es una academia que se esmera en guiar a la persona durante las clases y siempre hay muy buena disposición. }
Requisitos
Para participar de este curso es necesario que tengas conocimiento en el lenguaje de programación Python y SQL. Para el proceso de postulación se incluye una evaluación online de conocimientos. ¿No sabes Python? No te preocupes, al inscribirte en este curso tienes descuento en el módulo Introducción a la Programación con Python
Inscríbete para conocer las nuevas fechas de Big Data en tu ciudad.