Você pode tentar algo parecido com o seguinte; ele usa uma invocação separada de hadoop fs cat (em uma substituição de processo) para recuperar cada arquivo e apresentá-lo ao script.sh como um nome de arquivo a ser aberto para leitura.
# Adjust the hdfs: URLs as necessary
hadoop fs -cat hdfs://path_to_script/sample.sh | exec bash \
<(hadoop fs -cat hdfs://param1) \
<(hadoop fs -cat hdfs://param2) \
<(hadoop fs -cat hdfs://param3) \
<(hadoop fs -cat hdfs://param4)
Se o script.sh já sabe ler o hdfs, então
hadoop fs -cat hdfs://path_to_script/script.sh | exec bash -s param1 param2 param3 param4
pode ser suficiente. A opção -s diz ao bash para ler o script da entrada padrão, para que ele não confunda param1 como o nome do script a ser executado.