Medrano 951 - 2do. Piso - Of. 206 CABA - Lunes a viernes de 9 a 21 hs
(5411) 4867 7500 (Int. 7745/7749) info@sceu.frba.utn.edu.ar
Diplomatura en Arquitecturas de Big Data

Diplomatura en Arquitecturas de Big Data

 

La Diplomatura en Arquitecturas de Big Data Aplicadas comprende los siguientes cursos/módulos

Apache Hadoop

  • Describir herramientas y componentes de las plataformas y bases de datos NoSQL tratadas.
  • Describir la arquitectura.
  • Describir como se accede a los datos, se insertan modifican y borran en base de datos.
  • Usar herramientas y comandos para importar y exportar archivos desde/hacia las Plataformas y Bases de Datos tratadas.
  • Describir como es generan y modelar estructuras.
  • Explicar y utilizar diferentes formatos de datos.
  • Utilización de motores de procesamiento Distribuido.
  • Desarrollar en diferentes lenguajes sobre plataformas de procesamiento y almacenamiento distribuido y bases de datos NoSQL.
  • Desarrollar ETLs hacia y desde Bases de Datos NoSQL y Hadoop.
  • Configurar y hacer troubleshooting de Jobs MapReduce.
  • Monitorear y administrar las Plataformas y Bases de Datos NoSQL tratadas.

 

NoSQL MongoDB

  • Entender el contexto y agentes del mercado en el cual surgen las bases de datos NoSQL.
  • Entender el concepto de persistencia políglota y su uso en las aplicaciones, con sus ventajas asociadas.
  • Entender cómo utilizar MongoDB para insertar datos, actualizarlos, borrarlos y consultarlos.
  • Entender los diferentes tipos de índices que utiliza MongoDB y cuando aplicarlos.
  • Utilizar el framework de agregación y map reduce embebido.
  • Modelar datos para aplicaciones eficientes.
  • Poder diseñar e implementar mecanismos de replicación y particionamiento de datos.
  • Conocer las herramientas y comandos de administración y monitoreo de MongoDB.
  • Poder configurar seguridad en MongoDB.

 

NoSQL Cassandra y Neo4J

  • Modelar datos para diseñar aplicaciones utilizando bases de datos basadas en familias de columnas y en grafos.
  • Entender los diferentes tipos de column families que utiliza Cassandra y cuando aplicarlas.
  • Entender cómo utilizar Cassandra y Neo4J para insertar datos, actualizarlos, borrarlos y consultarlos.
  • Conocer el lenguaje CQL para desarrollar consultas y procesos sobre Cassandra.
  • Conocer el lenguaje Cypher para desarrollar consultas y procesos sobre Neo4J.
  • Poder diseñar e implementar mecanismos de replicación de datos en Cassandra y Neo4J.
  • Comprender la arquitectura interna y sus componentes principales de Cassandra y Neo4J.
  • Conocer herramientas de administración de Cassandra y Neo4J.

 

NoSQL Key-Value Redis

  • Entender el contexto y agentes del mercado en el cual surgen las bases de datos NoSQL.
  • Entender el concepto de persistencia políglota y su uso en las aplicaciones, con sus ventajas asociadas.
  • Modelar datos para diseñar aplicaciones utilizando bases de datos Key Values.
  • Entender cómo utilizar Redis para insertar datos, actualizarlos, borrarlos y consultarlos.
  • Entender las estructuras de datos: Keys & Expiration / Strings / Hashes / Lists / Sets / Sorted Sets / Hyperloglogs.
  • Operaciones Set.
  • Basic Transactions y Optimistic concurrency control.
  • Object Storage: Simple Objects / Nesting, Relationships & Folding.
  • Poder diseñar e implementar mecanismos de replicación de datos en Redis.
  • Comprender la arquitectura interna y sus componentes principales de Redis.
  • Conocer herramientas de administración de Redis.

 

Elastic Stack

  • Entender el funcionamiento general del Elastic Stack como así en qué casos es conveniente su utilización.
  • Manejar los Beats disponibles en Elastic Stack oficialmente, además conocer los creados por la comunidad.
  • Entender la ingesta y transformación de los datos por medio del uso de codecs y filtros utilizando logstash con aplicación práctica.
  • Comprender el funcionamiento interno de ElasticSearch a la hora de indexar la información.
  • Configurar el motor de búsqueda ElasticSearch de la manera que nos resulte más eficiente a la hora de aplicarlo, dependiendo el caso en particular.
  • Crear, Eliminar, Modificar y Configurar adecuadamente índices para su posterior utilización.
  • Realizar consultas sobre nuestros índices tanto Full Text Search como Term Queries.
  • Explotar la información alojada en ElasticSearch utilizando Kibana.
  • Visualizar información por medio de Dashboards adecuados a las métricas y valores alojados en nuestro índice.
  • Entender toda la variedad de visualizaciones de las que dispone kibana y saber aplicarlas con los datos correctos.
  • Entender toda la variedad de visualizaciones de las que dispone kibana y saber aplicarlas con los datos correctos.
  • Comprender todos los métodos de aplicación que nos ofrece kibana.

 

Pentaho Data Integration- Apache NiFi

  • Entender el contexto y agentes del mercado en el cual surgen la inteligencia de negocios.
  • Entender el concepto de Inteligencia de Negocio (BI) y su uso en las aplicaciones, con sus ventajas asociadas.
  • Entender los conceptos de DataWarehouse, DataMart y DataLake.
  • Realizar modelados dimensionales utilizando PDI y NiFi como herramienta ETL.
  • Entender cómo utilizar PDI y NiFi para extraer datos, actualizarlos, borrarlos y limpiarlos para luego volcarlos convenientemente.
  • Diseñar e implementar mecanismos de ETL en PDI y NiFi.
  • Comprender la arquitectura interna y sus componentes principales de PDI y NiFi.
  • Conocer herramientas de administración de PDI y NiFi.

 

Programación Distribuida, Text Mining y Data Science aplicada

  • Entender los conceptos relacionados a la programación distribuida y su aplicación en data science.
  • Conocer las tecnologías y la arquitectura para la programación distribuida.
  • Aprender conceptos de Machine Learning de manera teórica y práctica.
  • Entender las funciones del rol de los data scientists y data engineer dentro de una organización.
  • Aprender la Herramienta Mahout de la Plataforma Hadoop.
  • Programar algoritmos de data mining con Java sobre Motor de Procesamiento MapReduce.
  • Programar algoritmos de data mining con Python sobre Motor de Procesamiento Spark.
  • Programar algoritmos de data mining con Scala sobre Motor de Procesamiento Spark.
  • Programar algoritmos en Scala ó Python sobre Spark en HDFS.
  • Programar algoritmos en Scala ó Python sobre Spark en MongoDB.
  • Entender el concepto de arquitectura Lambda.
  • Implementar arquitectura Lambda con los lenguajes y herramientas estudiados.

 

DESTINATARIOS

Profesionales de Sistemas. Administradores de Bases de datos. Analistas de BI. Desarrolladores. Científicos de Datos. Arquitectos de Datos. Administradores de Sistemas. DevOps.

 

METODOLOGÍA A UTILIZAR

Se dictará en cuatro cursos teórico/prácticos y se rendirá un examen por cada módulo con una nota de aprobación mínima de 60/100.
Dada la temática del programa y los objetivos que persigue, en todos los cursos, permanentemente se vincularán los conceptos teóricos con casos prácticos.
Durante todos los cursos los participantes trabajarán en el desarrollo de casos prácticos en los cuales puedan aplicar los conceptos adquiridos.
Cada clase estará dividida en una parte teórica y otra parte práctica en la que se implementan los conceptos adquiridos.

 

TEMARIO

Para conocer el temario y el listado de trabajos prácticos a desarrollar durante la cursada, haga clic AQUÍ

 

DURACIÓN

Carga horaria total: 177 hs.

Duración: 1 año: 7 cursos

Carga horaria por semana: 3 hs. / 6 hs.

 

EQUIPO DOCENTE

Ing. Juan Zaffaroni / Ingeniero en Sistemas de Información

Ing. Martín Mihura / Ingeniero en Sistemas de Información

Ing. Patricio Boffino / Ingeniero en Sistemas de Información

 

PROCEDIMIENTOS DE EVALUACIÓN Y CERTIFICACIÓN

– Evaluaciones parciales obligatorias a través de cada módulo.
– Cada Clase consta de un trabajo práctico y un cuestionario de 5 preguntas teóricas para reforzar conceptos.
– Cada módulo se aprueba rindiendo un examen y aprobándolo con una nota de 60/100 o más.

Se otorgará certificado de aprobación, para lo cual los participantes deberán cumplir con el 80 % de asistencia y la aprobación de los exámenes.

Aprobando los siete cursos:

Se entregará certificado de Diplomatura en Arquitecturas de Big Data Aplicadas.