对不起我的英语不好....
我尝试下载这本电子书,我用Wget尝试了不同的方法,
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger
和
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
仅下载该站点的链接。
和,
wget -r https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
因此,使用递归,下载所有网页....更多为 1GB....
我会下载它,然后将其转换为 PDF,就像这里所说的那样。
可以请人帮助我,谢谢!
看起来你所要做的就是:
这会下载 49 个文件,总共 3.7MB。
基本上你需要
-r
告诉 wget 以递归方式下载链接。然后-l 2
告诉 wget 不要超过 2 个级别。您将不得不告诉
wget
标准要下载什么(该文件夹下的任何内容?)以及不下载什么(Wiley 网站的所有其余部分)。如果您有可用的 GUI,“HTTrack Website Copier”之类的工具可能会简化该任务。