我想扫描我网站上的所有 url 并获取其中的文件,但问题是,有太多我无法手动执行此操作,那么我该怎么做呢?
只要有某种类型的命令,我无论如何都希望它格式化。
例如:URL/FOLDER URL/FOLDER/FILE URL/FOLDER/FILE2 URL/FOLDER2/FILE
全部在类似 .txt 的文件中
我该怎么做?
我想扫描我网站上的所有 url 并获取其中的文件,但问题是,有太多我无法手动执行此操作,那么我该怎么做呢?
只要有某种类型的命令,我无论如何都希望它格式化。
例如:URL/FOLDER URL/FOLDER/FILE URL/FOLDER/FILE2 URL/FOLDER2/FILE
全部在类似 .txt 的文件中
我该怎么做?
尝试
ls
通过-R
开关。它列出了子目录。这是一个例子: