Hadoop Big Data desde cero
Aprende a trabajar con Hadoop Big Data con MapReduce, YARN, HIVE, SQOOP, SPARK, HBASE, HUE, Zookeeper, etc....
What you will learn
Instalar un entorno de Hadoop Big Data
Administrar y configurar los componentes de Hadoop
Instalar un cluster Hadoop con ambari
Aprender a manejar el sistema de ficheros HDFS
Entender los conceptos más importantes de MapReduce y YARN
Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC....
Why take this course?
Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistema
Válido para versiones 2 y 3 de Hadoop
¿Qué contenidos vamos a ver?
- Aprenderás los conceptos básicos de esta tecnología
- Verás como descargar e instalar Hadoop manualmente
- También aprenderás a instalar y configurar Hadoop con ambari
- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop
- Instalarás y configuraras Map Reduce y YARN
- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:
HIVE
SQOOP
SPARK
HUE
ZooKeeper
HBASE
Otros productos que iré subiendo y actualizando
PIG
FLUME
......
¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!
- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio
- Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicial
En resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral.
El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva
Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡
Espero lo disfrutes¡¡¡¡¡