Resposta curta: não
Longa Resposta: ...
A maioria dos "Navegadores Offline" / Scrapers apenas baixam o HTML / JS / CSS bruto para serem processados pelo navegador mais tarde. Estas, se suas Strings de User-Agent se parecem com Legit "Browsers Online", é tudo o que você tem que passar e, portanto, não pode bloqueá-las.
Se eles executassem javascript em seu scrape (útil para sites que usam javascript para carregar partes da página, etc.), então você pode testar sua API JavaScript para ver quais recursos eles têm e direcioná-los dessa maneira. No entanto, isso é muito inútil, pois é provável que usem um sistema como o WebKit que outros navegadores legítimos também usam.
Alguns Scrapers podem obedecer ao arquivo Robots.txt, mas são mais propensos a serem os scrapers, como o Google Search / Cache e não os "navegadores off-line".
O último método é usar a autenticação que os downloads ocultam. Isso é efetivo desde que o usuário do raspador offline não forneça uma sessão autenticada.
Espero que ajude:)