Estou tentando baixar 1000 páginas HTML de um site específico ( https://isna.ir/ ) com o wget de forma recursiva (faz parte da nossa tarefa do curso), mas ele apenas baixa um arquivo index.html.
Eu tentei várias opções que o wget fornece, mas nenhuma delas funciona, também tentei--reject="index.html"
O comando:
wget --recursive -nd -np --random-wait -U Googlebot -P ./isna_crawl https://isna.ir/
Parece que o site define um cookie ao acessar sua raiz, que deve ser posteriormente apresentado para acessar outras páginas.
Parece que o wget, por padrão, não preserva cookies entre solicitações ao baixar páginas recursivamente.
Tente adicionar estes sinalizadores à invocação do wget:
Testei isso com um conjunto mais simples de sinalizadores de opção:
wget --save-cookies cookies.txt --load-cookies cookies.txt -r -l2 https://www.isna.ir/
Movido da pergunta
Solução:
Usar este comando foi útil: