curl, wget não retorna nada

1

Estou tentando isso curl -I zomato.com | head -n 1

e eu não estou recebendo nenhuma resposta.

% Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 
0  0    0    0     0   0     0       0   --:-  -:--     0:05:29 --:-   -:--     0 

O site é protegido por firewalls?

Mesmo wget não está funcionando no site também. Outros sites como google.com estão retornando 200 de resposta conforme o esperado.

    
por Alex Kasina 26.11.2016 / 23:44

2 respostas

0

$ curl -I --max-redirs 1 "https://www.zomato.com/" 2>/dev/null  | grep "^location:" | awk '{print $2}'
https://www.zomato.com/some-location-in-mongolia

então ...

$ newURL=$(curl -I --max-redirs 1 "https://www.zomato.com/" 2>/dev/null  | grep "^location:" | awk '{print $2}'| grep -o ".*[a-z]"); curl -I "$newURL" | head -n 1
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
  0     0    0     0    0     0      0      0 --:--:--  0:00:01 --:--:--     0
HTTP/2 200 

não tenho certeza de que ajudar com o descarte é permitido neste fórum, mas;

wget --header "User-Agent: Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0" --header "Host: www.zomato.com" --header "Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8" "https://www.zomato.com/bangalore/restaurants/biryani"
    
por 26.11.2016 / 23:57
0

funcionou para você? Ele está funcionando a partir da minha máquina local, mas quando eu tento de aws serve ele fica preso e não retorna nada. Estou correndo abaixo do comando:

curl -v 'https://www.zomato.com/' -H 'accept-encoding: gzip, deflate, sdch, br' -H 'accept-language: en-US,en;q=0.8' -H 'upgrade-insecure-requests: 1' -H 'user-agent: Mozilla/5.0 (X11; Linux x86_64; rv:45.0) Gecko/20100101 Firefox/45.0' -H 'accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8' -H 'cache-control: max-age=0' -H 'authority: www.zomato.com' --compressed

    
por 19.12.2016 / 09:33