O problema não é com o wget inserindo um arquivo robots.txt no qual ele não pertence, mas sim com o servidor do qual você está espelhando o conteúdo. O servidor é, evidentemente, configurado incorretamente para manipular as solicitações do tipo 200 e, assim, quando o wget procura uma página do wget, ele recria uma solicitação com 404 bits.
Eu estava olhando o código-fonte do wget há um tempo atrás. Eu acho que o que aconteceu foi que o wget sempre procura por um arquivo robots.txt. Mas, na maioria dos casos, se for deixado em branco, o wget o exclui. No seu caso, ele é arquivado pela página 404 que recebe quando o wget tenta acessá-lo.
Infelizmente, não sei como consertar um erro de solicitação HTTP tipo 200, para isso, precisaríamos de mais informações sobre o servidor.