Los analistas y expertos Big Data son los profesionales más demandados de este año y las empresas compiten por obtener en sus compañías estos perfiles. Este es un puesto novedoso que no cuenta aún con muchos especialistas y nos sentimos orgullosos de formar estos perfiles.
Aquellos particulares o empresas que deseen obtener una formación práctica y ágil con la que puedan actualizar e incrementar sus conocimientos.
Formación técnica
Tendencias actual en Big Data.
Entorno virtual Cloudera.
Primeras operaciones con Cloudera.
Lenguajes Hive e Impala Paas, Iaas, Saas AWS
Formación específica
Introducción a Big Data
Big Data como motor de evolución. Soluciones Big Data. Big Data operacional. Big Data analítico. Bases de datos NoSQL. Modelos de programación para Big Data.
Big Data con MongoDB Introducción a MongoDB. Organización de los datos. Manejo básico de datos.
Agregación de datos Métodos básicos de agregación. MapReduce. Aggregation Framework.
Arquitectura de una solución MongoDB Uso de índices. Modelado de datos. Replicación de los datos. Distribución de los datos.
Big Data con Hadoop Introducción a Hadoop. Componentes.
Sistema de ficheros distribuido. MapReduce. Historia de Hadoop. Ecosistema Hadoop.
Desarrollo con Hadoop Configuración del entorno. Creación y ejecución de trabajos. Opciones de ejecución. Interfaz para múltiples lenguajes.
Ecosistema Hadoop Interfaces de consulta de alto nivel. Programación basada en tuberías. Bases de datos. Otros proyectos.
Cloudera Certified Associate (CCA) Data
Analyst Apache Hadoop Fundamentals. Introduction to Apache Pig. Querying with Apache Hive and Impala. Common Operators and Built-In Functions.
Data Management. Data Storage and Performance. Working with Multiple Datasets. Analytic Functions and Windowing. Complex Data. Analyzing Text. Apache Hive Optimization. Apache
Impala Optimization. Extending Apache Hive and Impala. Choosing the Best Tool for the Job.
Cloudera Certified Associate (CCA) Spark & Hadoop Developer Introduction to Apache Hadoop and the Hadoop Ecosystem.
Apache Hadoop File Storage. Distributed Processing on an Apache Hadoop Cluster. Apache Spark Basics. Working with DataFrames and Schemas. Analyzing Data with DataFrame Queries.
RDD Overview. Transforming Data with RDDs. Aggregating Data with Pair RDDs. Querying Tables and Views with Apache Spark SQL. Working with Datasets in Scala. Writing, Configuring, and
Running Apache Spark Applications. Distributed Processing. Distributed Data Persistence. Common Patterns in Apache Spark Data Processing. Apache Spark Streaming: Introduction to
DStreams. Apache Spark Streaming: Processing Multiple Batches. Apache Spark Streaming: Data Source.
Cloud Concepts Definir la nube de AWS y su propuesta de valor. Identificar aspectos de la economía de la nube de AWS Enumerar los diferentes principios de diseño de la arquitectura de la
nube.
Seguridad Definir el modelo de Responsabilidad Compartida de AWS. Definición de la página de conceptos de seguridad y cumplimiento en la nube de AWS. Identificar las capacidades de
gestión de acceso de AWS. Identificar recursos para soporte de seguridad.
Tecnología Definir métodos de implementación y operación en la nube de AWS Definir la infraestructura global de AWS Identificar los servicios centrales de AWS Identificar recursos para soporte tecnológico.
Facturación y precios Compare y contraste los diferentes modelos de precios para AWS. Reconocer las diversas estructuras de cuentas en relación con la facturación y los precios de AWS. Identificar recursos disponibles para soporte de facturación.
Curso totalmente práctico con seminario de certificación de 50 horas para prepararte para las certificaciones oficiales de Cloudera y AWS: CCA Data Analyst, CCA Spark & Hadoop Developer, CLF-C01.
No se requiere de titulaciones o experiencia previa para iniciar la formación.
Información Adicional
Salidas profesionales
Los arquitectos de Big Data son unos de los perfiles profesionales más demandados del sector IT. Les espera un futuro muy prometedor y representa una de las profesiones mejor pagadas del momento.
La arquitectura de Big Data consiste en tratar y analizar grandes volúmenes de datos que no pueden ser gestionados de manera convencional, al superar las capacidades de otras herramientas de software utilizadas convencionalmente para el almacenamiento, gestión y procesamiento de datos