-A "Sample" kind of acts like a Sample* would in bash
Não pela minha leitura de man wget
:
- -A acclist --accept acclist
- -R rejlist --reject rejlist
Specify comma-separated lists of file name suffixes or patterns to accept or reject. Note that if any of the wildcard characters, *, ?, [ or ], appear in an element of acclist or rejlist, it will be treated as a pattern, rather than a suffix.
Portanto, seu uso (sem curingas) é equivalente ao bash glob *.Sample
.
O Wget funciona varrendo links, o que provavelmente é o porquê ele está tentando fazer o download de um index.html
(você não disse qual é o conteúdo disso, se é que existe, só que demorou muito) - ter um lugar para começar. Para explicar melhor: uma URL é não um caminho de arquivo . Você não pode verificar um servidor da Web como se fosse uma hierarquia de diretórios, dizendo: "forneça todos os arquivos no diretório foobar
". Se foobar
corresponder a um diretório real (certamente não é necessário, porque é parte de uma URL, não de um caminho de arquivo), um servidor da web pode ser configurado para fornecer um índice gerado automaticamente. html listando os arquivos, fornecendo a ilusão de que você pode navegar pelo sistema de arquivos. Mas isso não faz parte do protocolo HTTP, é apenas uma convenção usada por padrão com servidores como o apache. Então, o que o wget
faz é varrer, por exemplo, index.html
para <a href=
e <img src=
, etc., então segue esses links e faz a mesma coisa, recursivamente. É a isso que o comportamento "recursivo" do wget se refere - recursivamente examina links porque (para reiterar), ele não tem acesso a nenhum sistema de arquivos no servidor, e o servidor não precisa fornecer QUALQUER informação referente a tais .
Se você tiver uma página da web .html
real que possa ser carregada e clicar em todos os itens desejados, comece com esse endereço e use apenas -r -np -k -p
.