Hadoop es un marco de código abierto que permite almacenar y procesar big data en un entorno distribuido a través de grupos de computadoras utilizando modelos de programación simples. Está diseñado para escalar de servidores únicos a miles de máquinas, cada una de las cuales ofrece computación y almacenamiento locales.
Este breve tutorial proporciona una introducción rápida a Big Data, el algoritmo MapReduce y el sistema de archivos distribuido Hadoop.
Este tutorial ha sido preparado para profesionales que aspiran a aprender los conceptos básicos de Big Data Analytics utilizando Hadoop Framework y convertirse en Hadoop Developer. Los profesionales de software, los profesionales de análisis y los desarrolladores de ETL son los principales beneficiarios de este curso.
Antes de comenzar con este tutorial, asumimos que tiene exposición previa a Core Java, conceptos de bases de datos y cualquiera de los sabores del sistema operativo Linux.