如何全部下载镜像网站上的目录和文件呢?
比如我想把 linux.csie.nctu.edu.tw 中 所有的目录和镜像下载到我本地的硬盘中,除了一条条的手工下载和建立目录,有没有什么比较快捷的办法?我用了一下wget,没有成功啊~~
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
比如我想把 linux.csie.nctu.edu.tw 中 所有的目录和镜像下载到我本地的硬盘中,除了一条条的手工下载和建立目录,有没有什么比较快捷的办法?我用了一下wget,没有成功啊~~
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(2)
可以用爬虫
试试http://darcyripper.com/
wget -r -p -np -k -P . linux.csie.nctu.edu.tw
-P 表示下载到哪个目录
-r 表示递归下载
-np 表示不下载旁站连接.
-k 表示将下载的网页里的链接修改为本地链接.
-p 获得所有显示网页所需的元素