La Diplomatura en Arquitecturas de Big Data Aplicadas comprende los siguientes cursos/módulos
Apache Hadoop
- Describir herramientas y componentes de las plataformas y bases de datos NoSQL tratadas.
- Describir la arquitectura.
- Describir como se accede a los datos, se insertan modifican y borran en base de datos.
- Usar herramientas y comandos para importar y exportar archivos desde/hacia las Plataformas y Bases de Datos tratadas.
- Describir como es generan y modelar estructuras.
- Explicar y utilizar diferentes formatos de datos.
- Utilización de motores de procesamiento Distribuido.
- Desarrollar en diferentes lenguajes sobre plataformas de procesamiento y almacenamiento distribuido y bases de datos NoSQL.
- Desarrollar ETLs hacia y desde Bases de Datos NoSQL y Hadoop.
- Configurar y hacer troubleshooting de Jobs MapReduce.
- Monitorear y administrar las Plataformas y Bases de Datos NoSQL tratadas.
NoSQL MongoDB
- Entender el contexto y agentes del mercado en el cual surgen las bases de datos NoSQL.
- Entender el concepto de persistencia políglota y su uso en las aplicaciones, con sus ventajas asociadas.
- Entender cómo utilizar MongoDB para insertar datos, actualizarlos, borrarlos y consultarlos.
- Entender los diferentes tipos de índices que utiliza MongoDB y cuando aplicarlos.
- Utilizar el framework de agregación y map reduce embebido.
- Modelar datos para aplicaciones eficientes.
- Poder diseñar e implementar mecanismos de replicación y particionamiento de datos.
- Conocer las herramientas y comandos de administración y monitoreo de MongoDB.
- Poder configurar seguridad en MongoDB.
NoSQL Cassandra y Neo4J
- Modelar datos para diseñar aplicaciones utilizando bases de datos basadas en familias de columnas y en grafos.
- Entender los diferentes tipos de column families que utiliza Cassandra y cuando aplicarlas.
- Entender cómo utilizar Cassandra y Neo4J para insertar datos, actualizarlos, borrarlos y consultarlos.
- Conocer el lenguaje CQL para desarrollar consultas y procesos sobre Cassandra.
- Conocer el lenguaje Cypher para desarrollar consultas y procesos sobre Neo4J.
- Poder diseñar e implementar mecanismos de replicación de datos en Cassandra y Neo4J.
- Comprender la arquitectura interna y sus componentes principales de Cassandra y Neo4J.
- Conocer herramientas de administración de Cassandra y Neo4J.
NoSQL Key-Value Redis
- Entender el contexto y agentes del mercado en el cual surgen las bases de datos NoSQL.
- Entender el concepto de persistencia políglota y su uso en las aplicaciones, con sus ventajas asociadas.
- Modelar datos para diseñar aplicaciones utilizando bases de datos Key Values.
- Entender cómo utilizar Redis para insertar datos, actualizarlos, borrarlos y consultarlos.
- Entender las estructuras de datos: Keys & Expiration / Strings / Hashes / Lists / Sets / Sorted Sets / Hyperloglogs.
- Operaciones Set.
- Basic Transactions y Optimistic concurrency control.
- Object Storage: Simple Objects / Nesting, Relationships & Folding.
- Poder diseñar e implementar mecanismos de replicación de datos en Redis.
- Comprender la arquitectura interna y sus componentes principales de Redis.
- Conocer herramientas de administración de Redis.
Elastic Stack
- Entender el funcionamiento general del Elastic Stack como así en qué casos es conveniente su utilización.
- Manejar los Beats disponibles en Elastic Stack oficialmente, además conocer los creados por la comunidad.
- Entender la ingesta y transformación de los datos por medio del uso de codecs y filtros utilizando logstash con aplicación práctica.
- Comprender el funcionamiento interno de ElasticSearch a la hora de indexar la información.
- Configurar el motor de búsqueda ElasticSearch de la manera que nos resulte más eficiente a la hora de aplicarlo, dependiendo el caso en particular.
- Crear, Eliminar, Modificar y Configurar adecuadamente índices para su posterior utilización.
- Realizar consultas sobre nuestros índices tanto Full Text Search como Term Queries.
- Explotar la información alojada en ElasticSearch utilizando Kibana.
- Visualizar información por medio de Dashboards adecuados a las métricas y valores alojados en nuestro índice.
- Entender toda la variedad de visualizaciones de las que dispone kibana y saber aplicarlas con los datos correctos.
- Entender toda la variedad de visualizaciones de las que dispone kibana y saber aplicarlas con los datos correctos.
- Comprender todos los métodos de aplicación que nos ofrece kibana.
Pentaho Data Integration- Apache NiFi
- Entender el contexto y agentes del mercado en el cual surgen la inteligencia de negocios.
- Entender el concepto de Inteligencia de Negocio (BI) y su uso en las aplicaciones, con sus ventajas asociadas.
- Entender los conceptos de DataWarehouse, DataMart y DataLake.
- Realizar modelados dimensionales utilizando PDI y NiFi como herramienta ETL.
- Entender cómo utilizar PDI y NiFi para extraer datos, actualizarlos, borrarlos y limpiarlos para luego volcarlos convenientemente.
- Diseñar e implementar mecanismos de ETL en PDI y NiFi.
- Comprender la arquitectura interna y sus componentes principales de PDI y NiFi.
- Conocer herramientas de administración de PDI y NiFi.
Programación Distribuida, Text Mining y Data Science aplicada
- Entender los conceptos relacionados a la programación distribuida y su aplicación en data science.
- Conocer las tecnologías y la arquitectura para la programación distribuida.
- Aprender conceptos de Machine Learning de manera teórica y práctica.
- Entender las funciones del rol de los data scientists y data engineer dentro de una organización.
- Aprender la Herramienta Mahout de la Plataforma Hadoop.
- Programar algoritmos de data mining con Java sobre Motor de Procesamiento MapReduce.
- Programar algoritmos de data mining con Python sobre Motor de Procesamiento Spark.
- Programar algoritmos de data mining con Scala sobre Motor de Procesamiento Spark.
- Programar algoritmos en Scala ó Python sobre Spark en HDFS.
- Programar algoritmos en Scala ó Python sobre Spark en MongoDB.
- Entender el concepto de arquitectura Lambda.
- Implementar arquitectura Lambda con los lenguajes y herramientas estudiados.
DESTINATARIOS
Profesionales de Sistemas. Administradores de Bases de datos. Analistas de BI. Desarrolladores. Científicos de Datos. Arquitectos de Datos. Administradores de Sistemas. DevOps.
METODOLOGÍA A UTILIZAR
– Se dictará en cuatro cursos teórico/prácticos y se rendirá un examen por cada módulo con una nota de aprobación mínima de 60/100.
– Dada la temática del programa y los objetivos que persigue, en todos los cursos, permanentemente se vincularán los conceptos teóricos con casos prácticos.
– Durante todos los cursos los participantes trabajarán en el desarrollo de casos prácticos en los cuales puedan aplicar los conceptos adquiridos.
– Cada clase estará dividida en una parte teórica y otra parte práctica en la que se implementan los conceptos adquiridos.
TEMARIO
Para conocer el temario y el listado de trabajos prácticos a desarrollar durante la cursada, haga clic AQUÍ
DURACIÓN
Carga horaria total: 177 hs.
Duración: 1 año: 7 cursos
Carga horaria por semana: 3 hs. / 6 hs.
EQUIPO DOCENTE
Ing. Juan Zaffaroni / Ingeniero en Sistemas de Información
Ing. Martín Mihura / Ingeniero en Sistemas de Información
Ing. Patricio Boffino / Ingeniero en Sistemas de Información
PROCEDIMIENTOS DE EVALUACIÓN Y CERTIFICACIÓN
– Evaluaciones parciales obligatorias a través de cada módulo.
– Cada Clase consta de un trabajo práctico y un cuestionario de 5 preguntas teóricas para reforzar conceptos.
– Cada módulo se aprueba rindiendo un examen y aprobándolo con una nota de 60/100 o más.
Se otorgará certificado de aprobación, para lo cual los participantes deberán cumplir con el 80 % de asistencia y la aprobación de los exámenes.
Aprobando los siete cursos:
- BigData – NoSQL MongoDB
- BigData – Apache Hadoop
- Big Data NoSQL Cassandra y Neo4J
- Big Data NoSQL Redis
- Big Data – Elastic Stack
- Big Data – Pentaho Data Integration- Apache NiFi
- Programación Distribuida, Text Mining y Data Science Aplicada
Se entregará certificado de Diplomatura en Arquitecturas de Big Data Aplicadas.