从网页递归下载文件
http://examples.oreilly.com/9780735615366/
我实际上希望能够拥有所有这些我的磁盘中的文件。
正如您所看到的,有许多文件夹,每个文件夹都包含不同类型的文件。
并且您无法直接下载“文件夹”...只能下载单个文件
〜
有什么方法可以自动化过程..?
我需要 url 上的正则表达式将它们排列在类似层次结构的“文件夹”中。
我该使用什么...像Python这样的脚本语言?
http://examples.oreilly.com/9780735615366/
I actually want to be able to have all these files in my disk.
as u can see there are many folders each with different type of files.
and u cannot download "the-folder" directly...only individual files
~
is there any way to automate process..?
I will need regular expressions on urls to arrange them in a "folder" like hierarchy.
what do I use...some scripting language like python?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
看一下
wget
工具。它完全可以做你想做的事。Take a look at
wget
tool. It can do exactly what you want.wget(GNU 命令行工具)将为您完成此操作。
您想要执行的操作的文档在这里:
http://www.gnu.org/software/wget /manual/html_node/Recursive-Retrieval-Options.html
wget (GNU command line tool) will do this for you.
The documentation for what you want to do is here:
http://www.gnu.org/software/wget/manual/html_node/Recursive-Retrieval-Options.html
一个作弊的答案是使用 FTP:
就是你给出的例子......
A cheating answer is to use FTP:
is for the example you gave...
尝试一下 Wget。这是一个能够做到这一点的简单命令行实用程序。
Try Wget. it's a simple command line utility able to do that.