我有一个 txt 文件 list.txt 有一堆 url,每行一个。我想设置一个 cron 作业,每天一次 wget/curl 文件的每个 url,但不将它们保存在计算机中。
我尝试先在终端上运行它。
wget -i /root/list.txt -O /dev/null
该命令无法理解。它将 list.txt 保存到 /dev/null,而不是 list.txt 中 url 中的文件。然后它说“找不到网址”。
那么我该如何正确地做到这一点呢?从列表中获取每个 url 但不在计算机上保存任何内容?
如果您不想下载 URL,请使用
--spider
. 并且您可以使用 删除混乱-q
,这具有额外的好处,如果设置正确,实际错误仍由 crond 处理并转发。不知道为什么在这里使用 wget,因为该工具的主要目标是下载文件。
使用 curl 和一个简单的循环,它应该可以工作,如下所示:
并且不会下载任何内容,只需点击文本列表中的目标网站即可。