Não realmente. Principalmente porque quando um navegador da Web abre uma página da Web para visualizá-lo, as solicitações enviadas são idênticas às solicitações que um link scraper usaria para fazer o download de todo o site.
Digamos que você tenha um site pago que contenha milhares de fotos pelas quais você está cobrando uma taxa de assinatura mensal e adicione novos conteúdos semanalmente. Você tem cem galerias e cada galeria contém 20 a 30 fotos. Você paga um bom dinheiro por essas fotos e pelos modelos que trabalham duro nelas, então você quer proteger sua propriedade.
Quando o navegador da Web carregar cada galeria, ele fará de 20 a 30 solicitações simultâneas para cada foto na página. Depois que a solicitação é feita, você não tem controle sobre o que acontece depois que ela sai do servidor.
Você pode tentar coisas como:
Taxa limitando
Certifique-se de que não mais de 3 solicitações possam ser atendidas a partir do seu conteúdo protegido por segundo. Mas isso cria uma experiência irritante para seus usuários legítimos que estão apenas tentando carregar seu conteúdo. E tudo o que faz pelos seus raspadores é atrasá-los em alguns segundos.
Verificação de referenciador
Isso geralmente é usado para bloquear hotlinks - certificando-se de que todos os recursos solicitados tenham um referenciador de HTTP válido que corresponda aos seus domínios listados em branco. Mas qualquer software decente de lixiviação enviará um referenciador válido de qualquer maneira, e é incrivelmente trivial forjar, então você está desperdiçando sua energia aqui.
Desativar o clique com o botão direito
Isso só impedirá o método mais simples de baixar conteúdo - clicar com o botão direito do mouse e escolher "Salvar destino como ..." e é incrivelmente simples de contornar
E, no final do dia, os usuários precisam pressionar o botão Print Screen para copiar o que estiver exibido na tela.
tl; dr
Você não pode evitar isso.