O poder do Hadoop vem do fato de ele usar um sistema de arquivos distribuídos (HDFS) e um modelo de programação distribuída (MapReduce). O processamento não pode ser paralelizado em um cluster de nó único com um disco, portanto, devido a overhead do Hadoop - paradigmas mais simples provavelmente serão mais rápidos.
Mesmo ao usar um cluster completo, você não verá o benefício do Hadoop se o conjunto de datas for muito pequeno ou se o algoritmo não for adequado para o processamento distribuído (por exemplo, encontrar um valor mediano).