我正在使用 cURL 登录多个网站。
对于我的情况来说,手动查看 DOM 来获取用户名和密码字段是很乏味的。
然后我将解析这些字段并使用curl -d
命令登录。
更新:
我需要登录的唯一原因是为了获取 cookie。对于某些网站来说,Python 也是如此。
cURL,获取netscape格式的cookie,使用Python你必须做更多的工作才能转换为netscape格式。
这个问题已经得到了回答。
更新:
我只需要把用户代理传递进去
我正在使用 cURL 登录多个网站。
对于我的情况来说,手动查看 DOM 来获取用户名和密码字段是很乏味的。
然后我将解析这些字段并使用curl -d
命令登录。
更新:
我需要登录的唯一原因是为了获取 cookie。对于某些网站来说,Python 也是如此。
cURL,获取netscape格式的cookie,使用Python你必须做更多的工作才能转换为netscape格式。
这个问题已经得到了回答。
更新:
我只需要把用户代理传递进去
不。curl 仅检索数据。它根本不是用来解析响应主体的。
对于任何类型的脚本自动登录网站,我建议使用 Python 和requests模块以及lxml 的 HTML 解析器。
在这种情况下,Curl 不会为您进行 HTML 解析。
你需要自己做;这表明尝试在 shell 脚本中完成这一切可能并不是最简单的方法。
我可能会使用该库编写一个简短的 Python 程序
requests
来执行 http 部分,并使用 BeautifulSoup 库从 DOM 中获取字段。