Não é possível copiar / espelhar a página do site usando o WinHTTrack

0

Estou usando o Httrack para copiar / espelhar um site e enfrentar um problema.

Estou falando do site . Considere que eu quero cobrir esta página com todos os links internos (você pode ver como: problema 6.11, problema 6.10 daquela página) . Então, tentei seguir:

  1. Insira o nome do projeto e o URL:

  • A opção Definir pode subir e descer ambos
  • E comecei a espelhar, o processo foi concluído, mas quando eu navego index.html, a página principal é exibida corretamente, mas links adicionais (página sab mencionada anteriormente, problema 6.11, 6.10, etc.) não são exibidos - apenas o feed de nome de arquivo é mostrado (tente você mesmo ver o que está errado)

    Como corrijo esse problema?

        
    por APLUS 15.07.2015 / 13:24

    1 resposta

    0

    Sugiro que leia as FAQ

    Aqui está uma citação do site do WinHTTrack:

    Question: Some sites are captured very well, other aren't. Why?

    Answer: There are several reasons (and solutions) for a mirror to fail. Reading the log files (ans this FAQ!) is generally a VERY good idea to figure out what occured.

    Links within the site refers to external links, or links located in another (or upper) directories, not captured by default - the use of filters is generally THE solution, as this is one of the powerful option in HTTrack. See the above questions/answers. Website 'robots.txt' rules forbide access to several website parts - you can disable them, but only with great care! HTTrack is filtered (by its default User-agent IDentity) - you can change the Browser User-Agent identity to an anonymous one (MSIE, Netscape..) - here again, use this option with care, as this measure might have been put to avoid some bandwidth abuse (see also the abuse faq!)

    There are cases, however, that can not be (yet) handled:

    Flash sites - no full support

    Intensive Java/Javascript sites - might be bogus/incomplete

    Complex CGI with built-in redirect, and other tricks - very complicated to handle, and therefore might cause problems

    Parsing problem in the HTML code (cases where the engine is fooled, for example by a false comment (

    comment (-->) detected. Rare cases, but might occur. A bug report is then generally good!

    Note: For some sites, setting "Force old HTTP/1.0 requests" option can be useful, as this option uses more basic requests (no HEAD request for example). This will cause a performance loss, but will increase the compatibility with some cgi-based sites.

    PD. Existem muitas razões para o site não ser capturado 100% eu acho que no SuperUser nós somos muito entusiastas, mas nós não vamos fazer engenharia reversa para um site para descobrir qual sistema está sendo executado por trás ( É minha opinião ).

        
    por 15.07.2015 / 14:14