Em primeiro lugar, seu comando do Hadoop provavelmente está incorreto.
dfs -copyFromLocal
espera dois parâmetros, um arquivo local (como você especificou) e, em seguida, um URI do Hadoop. Não como você deu, um caminho de arquivo.
Nas páginas da Web do Hadoop,
All FS shell commands take path URIs as arguments. The URI format is scheme://authority/path. For HDFS the scheme is hdfs, and for the Local FS the scheme is file. The scheme and authority are optional. If not specified, the default scheme specified in the configuration is used. An HDFS file or directory such as /parent/child can be specified as hdfs://namenodehost/parent/child or simply as /parent/child (given that your configuration is set to point to hdfs://namenodehost).
Most of the commands in FS shell behave like corresponding Unix commands. Differences are described with each of the commands. Error information is sent to stderr and the output is sent to stdout.
Eu não conheço a estrutura da sua instância do Hadoop, mas seu destino precisa ser um nome baseado nisso, não apenas no sistema de arquivos.
Em segundo lugar, você não nos mostra acima do conteúdo de /root/python_code/
, tem certeza de que input_data.csv
existe?