Para gestionar grandes volúmenes de datos, Hadoop implementa el paradigma denominado MapReduce, según el cual las aplicaciones se dividen en pequeñas piezas de software, cada uno de las cuales se pueden ejecutar en un nodo distinto de todos los que componen el sistema.