Este tópico já é antigo, mas outros podem ver isso. Obrigado, Wuffers, por me apontar na direção certa, mas, para expandir a resposta de Wuffers: Uma versão moderna do wget tem várias opções úteis para recursão de links e aplicação de links locais para que você possa navegar em uma cópia local de um site. Use a opção -r para recursar, a opção -k para corrigir os links locais, a opção -H para atravessar domínios diferentes do original, a opção -D para limitar quais domínios você atravessa, a opção -l para limitar o profundidade de recursão, e a opção -p para se certificar de que as folhas de sua travessia têm tudo o que precisam para exibir corretamente. Por exemplo, o seguinte fará o download de uma página e de tudo para o qual ela for vinculada imediatamente, tornando-a localmente navegável, a opção -p garante que, se as páginas vinculadas contiverem imagens, também serão baixadas:
wget -r -l 1 -p -k -H -D domain.com,relateddomain.com http://domain.com/page/in/domain
Usando um comando semelhante ao acima, consegui fazer o download de uma parte de uma página da wiki, com links externos, para o meu disco local sem baixar megabytes de dados irrelevantes. Agora, quando abro a página raiz no meu navegador, posso navegar na árvore sem uma conexão com a Internet. A única coisa irritante foi que a página raiz estava enterrada em subdiretórios e eu tive que criar uma página de redirecionamento de nível superior para torná-la conveniente para exibição. Pode demorar um pouco de tentativa e erro para acertar. Leia a página do manual do wget e experimente.