Se você estiver usando o MediaWiki, a extensão DumpHTML envia tudo para os arquivos estáticos: link
Editar: não sei como isso lidaria com páginas que exigem um logon.
Temos nosso próprio servidor de intranet com wikis. É acessível de fora, mas não hospedamos nossa página na web. Mantemos a maioria dos nossos dados em sincronia, é ótimo para colaboração.
Marcamos alguns dos nossos documentos em público e queremos que eles sejam acessíveis ao mundo, em nosso site baseado em "hospedagem".
Queremos "espelhar" os artigos públicos (os que são visíveis quando ninguém está logado) deste servidor em nosso escritório para o nosso site em algum lugar da Internet.
Observação: seria bom ter algum tipo de trabalho cron ou algo para que a hospedagem extraísse dados públicos do servidor a cada 4-8 horas ou mais para uma cópia navegável no serviço de hospedagem. Lá o site pode linkar para ele e exibi-lo de uma maneira diferente (usamos css diferentes, etc)
Solução de Neanderthal: Eu estava pensando em clonar o site da intranet pública com algo como "Teleport pro" (uma antiga ferramenta de 1997 que ainda funciona maravilhas :) e depois copiá-lo para o site.
Se você estiver usando o MediaWiki, a extensão DumpHTML envia tudo para os arquivos estáticos: link
Editar: não sei como isso lidaria com páginas que exigem um logon.
Você pode tentar o wget
, que funciona muito bem nesses casos e é fácil de colocar em um cron job. Está disponível em todas as distribuições Linux.
Tags web-server mac-osx-server