Apache Hadoop es un conjunto de aplicaciones que permiten el procesamiento distribuido de gran cantidad de datos, a través de clústeres de computadores, usando modelos de programación simples. Como tal se ha convertido en una herramienta clave para la revolución del Big Data.
Apache Hadoop está conformado por distintos componentes, de los cuales destacan MapReduce y HDFS. Es a través de una configuración distribuida en varias máquinas, que Apache Hadoop nos permite procesar grandes cantidades de datos, datos a los cuales se puede acceder de forma rápida y segura gracias al sistema que ofrece HDFS.
Descargar White Paper