Como você faz o Google atualizar o índice do seu site depois de se recuperar de um hack?

3

Eu tenho um site que assumi como webmaster. Foi no WordPress e foi hackeado e teve milhares de páginas de SPAM injetadas no site. Essas páginas foram indexadas pelo Google e, no final, tinham a mensagem " Este site pode ser invadido " em relação aos resultados de pesquisa.

Migrei o site para um CMS diferente e verifiquei se ele estava limpo, adicionei-o às minhas Ferramentas do Google para webmasters e as novas páginas foram indexadas. O problema é que o Google acabou de adicionar as novas páginas às páginas antigas de SPAM. O site é pequeno - não mais de 100 páginas, mas ao pesquisar site:example.org , obtenho " Cerca de 368.000 resultados ".

As Ferramentas do Google para webmasters enviam a mensagem: O Googlebot identificou um aumento significativo no número de URLs no link que retornam um erro 404 (não encontrado). Isso pode ser um sinal de uma interrupção ou configuração incorreta, o que seria uma má experiência do usuário. Isso resultará no Google descartar esses URLs dos resultados da pesquisa. Se essas URLs não existirem, nenhuma ação será necessária.

Já passou mais de um mês, mas esses milhares de erros 404 ainda estão sendo relatados pelas Ferramentas do Google para webmasters.

Eu tentei pesquisar nos fóruns e, até agora, minha única opção é remover o site completamente do índice do Google e adicioná-lo novamente. Não quero esse blecaute porque confiamos muito no tráfego de pesquisa para encontrar o site.

Todas as ideias sobre como remover essas páginas 404 não encontradas do Índice do Google - todas as 368.000 delas.

    
por Denver Chiwakira 08.10.2017 / 19:29

2 respostas

2

Você tentou enviar um mapa do site para o Google.

Ask Google to recrawl your URLs If you’ve recently added or made changes to a page on your site, you can ask Google to (re)index it using the Fetch as Google tool.

The "Request indexing" feature on Fetch as Google is a convenience method for easily requesting indexing for a few URLs; if you have a large number of URLs to submit, it is easier to submit a sitemap. instead. Both methods are about the same in terms of response times.

De: link

Se isso não funcionar, se essas URLs compartilharem um caminho semelhante, tente adicionar a URL na regra robot.txt em uma regra de desautorização.

User-agent: *
Disallow: /common_path_indexed/
    
por 09.10.2017 / 03:06
1

Você pode tentar adicionar 301 de redirecionamentos para essas páginas para que elas apontem para sua primeira página. Isso pode tornar mais rápido para o Google expirar as páginas invadidas.

    
por 08.10.2017 / 21:03