Estou usando cURL para fazer login em vários sites.
Examinar o DOM manualmente para obter os campos de nome de usuário e senha é entediante para o meu caso.
Em seguida, analisarei os campos e usarei o curl -d
comando para fazer login.
Atualizar:
A única razão pela qual preciso fazer login é para obter cookies. O mesmo acontece com Python para alguns sites.
cURL, obtém cookies no formato netscape, com Python você precisa trabalhar mais para converter para o formato netscape.
Esta pergunta foi respondida embora.
Atualizar:
Eu só tive que passar o agente do usuário
Não. curl recupera apenas dados. Não é feito para analisar o corpo da resposta.
Para qualquer tipo de automatização de logins em sites em scripts, recomendo usar Python e o módulo requests , bem como o analisador HTML do lxml .
Curl não faz a análise de HTML para você neste caso.
Você precisa fazer isso sozinho; isso sugere que talvez tentar fazer tudo isso em um script de shell não seja o caminho mais fácil a seguir.
Eu provavelmente escreveria um pequeno programa Python usando a
requests
biblioteca para fazer a parte http e a biblioteca BeautifulSoup para retirar os campos do DOM.