Big Data Analytics com Hadoop

Sobre o curso

Este curso ensina a instalar e gerenciar um ambiente completo de Big Data, através de um Cluster Hadoop e ferramentas que integram seu ecossistema: Zookeeper, HBase, Sqoop, Flume, Hive, Pig, Spark, Oozie, Hue, Zeppelin e Ambari.

Após este curso o aluno estará apto a:

  • Compreender o mercado para Análise de dados em Big Data;
  • Analisar, planejar a implementação de um Cluster Hadoop e realizar sua manutenção;
  • Implementar e gerenciar um Cluster HBase (banco de dados NoSQL);
  • Realizar a ingestão de dados SQL no HDFS/HBase/Hive através da ferramenta Sqoop;
  • Realizar a ingestão de Logs no HDFS/HBase através da ferramenta Flume;
  • Implementar e gerenciar um Data Warehouse através do Hive;
  • Realizar analise de dados utilizando funções agregadas e integração com HDFS/HBase;
  • Realizar analise de dados utilizando Pig através de operadores;
  • Integrar as ferramentas Pig e Hive para realizar a importação de dados;
  • Exportação de dados no Pig para HDFS/HBase;
  • Implementar o Spark e compreender seu ecossistema;
  • Criar Datasets no Spark e realizar analises via Spark SQL;
  • Automatizar a Extração, Transformação e Carga (ETL) unindo diversas ferramentas através do Oozie;
  • Agendar operações de ETL através do Oozie;
  • Gerenciar as ferramentas Zookeeper, Hbase, Sqoop, Flume, Hive, Pig, Spark e Oozie em ambiente gráfico;
  • Implementar a ferramenta Zeppelin que é capaz de produzir gráficos a partir analises;
  • Realizar o Deploy e monitoramento de um Cluster Hadoop através da Ferramenta Ambari;
  • Implementar solução de alta disponibilidade para um Cluster Hadoop;
  • Overview das principais soluções em Big Data no Mercado: Cloudera, Hortonworks e MapR..

Conteúdo Programático

  • Fundamentos Big Data
  • Instalação do Cluster Hadoop
  • Gerenciamento do Cluster Hadoop
  • HBase/Zookeeper: Hadoop Storage
  • Sqoop/Flume: Data Ingestion
  • Hive: SQL Query
  • Pig: Scripting
  • Spark: Hadoop in Memory
  • Zeppelin: Data Visualization
  • Ambari: System Deployment

Diferenciais deste Curso

  • Único Curso do Mercado que prepara o aluno para trabalhar com diversas ferramentas em conjunto: Hadoop. Zookeeper, HBase, Sqoop, Flume, Hive, Pig, Spark, Oozie, Hue e Zeppelin; Curso totalmente prático, onde o aluno pode aplicar os conhecimentos aprendidos no próximo dia de trabalho; Ambiente virtual desenvolvido a partir de cenários enfrentados diariamente por Engenheiros de Dados; Integrações entre diversas ferramentas para realizar operações de ETL

Pré-requisitos

  • Para acompanhar este curso, o aluno deve saber utilizar computadores, inicializar uma máquina virtual com VirtualBox. Recomenda-se saber o básico de administração de máquinas Linux, mas não é essencial.

Carga Horária

Curso Presencial: 40H

  • 40 horas

Próximas Turmas

Início Término Horário
10/12/2018 14/12/2018 Diurno - Segunda a Sexta das 08:30h às 17:30h
25/03/2019 05/04/2019 Noturno - Segunda à Sexta das 18:30h às 22:30h

Temos outras turmas, para mais informações entre em contato com um de nossos vendedores.

Receba Datas e Valores

Quem irá pagar o seu curso?
Modalidades
Preferência de horário
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
2 + 7 =
Resolva este problema matemático simples e digite o resultado. Por exemplo para 1+3, digite 4.

Compartilhe esta página