Adicione um arquivo robots.txt ao seu diretório raiz. Então, crie um arquivo de texto, chamado Robots.txt com as seguintes informações dentro (isso irá bloquear tudo):
User-agent: *
Disallow: /
Em seguida, envie este arquivo para o diretório raiz do site no seu servidor
Pesquise no Google por "arquivo robots.txt" para mais detalhes (como o bloqueio de certas páginas ou até mesmo alguns bots)
Ou use o NOINDEX na meta tag
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Como o site foi indexado, talvez seja necessário solicitar que ele desindexe as páginas: link
Então, no bloco de notas, adicione o seguinte
User-agent: *
Disallow: test.puttinout.com
Nomeie-o como robots.txt e envie-o para o diretório raiz.
O problema acima é que ele só funciona para mecanismos que obedecem ao arquivo do robô. Então, de outra forma, é se você tiver um endereço IP estático. Simplesmente encaminhe todas as conexões para o seu site (além do seu endereço IP) longe de suas páginas de teste.
Outra opção é forçar um login no seu teste. Isso pode até ser uma senha javascript, já que não precisa ser seguro. Então, depois de logado, autentique o usuário com um cookie ou similar.