我可以使用 wget 从 Linux 终端下载多个文件吗

发布于 2024-11-26 04:47:23 字数 242 浏览 2 评论 0原文

假设我有一个可通过 http e,g

Http://www.abc.com/pdf/books

访问的目录在文件夹内我有很多 pdf 文件

我可以使用类似

wget http://www.abc.com/pdf/books/*

Suppose i have a directory accessible via http e,g

Http://www.abc.com/pdf/books

Inside the folder i have many pdf files

Can i use something like

wget http://www.abc.com/pdf/books/*

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

ˇ宁静的妩媚 2024-12-03 04:47:23
wget -r -l1 -A.pdf http://www.abc.com/pdf/books
wget -r -l1 -A.pdf http://www.abc.com/pdf/books
狼性发作 2024-12-03 04:47:23

来自 wget 手册页:

 Wget 可以跟踪 HTML 和 XHTML 页面中的链接并创建远程网站的本地版本,完全重新创建原始站点的目录结构。这是
   有时称为“递归下载”。在执行此操作时,Wget 遵守机器人排除标准 (/robots.txt)。可以指示 Wget 转换
   下载的 HTML 文件中的链接到本地​​文件以供离线查看。

 递归检索选项
   -r
   --recursive
       Turn on recursive retrieving.

   -l depth
   --level=depth
       Specify recursion maximum depth level depth.  The default maximum depth is 5.

from wget man page:

   Wget can follow links in HTML and XHTML pages and create local versions of remote web sites, fully recreating the directory structure of the original site.  This is
   sometimes referred to as ``recursive downloading.''  While doing that, Wget respects the Robot Exclusion Standard (/robots.txt).  Wget can be instructed to convert the
   links in downloaded HTML files to the local files for offline viewing.

and

   Recursive Retrieval Options
   -r
   --recursive
       Turn on recursive retrieving.

   -l depth
   --level=depth
       Specify recursion maximum depth level depth.  The default maximum depth is 5.
女皇必胜 2024-12-03 04:47:23

这取决于网络服务器和服务器的配置。严格来说,URL 不是目录路径,因此 http://something/books/* 没有意义。

但是,如果 Web 服务器将 http://something/books 路径实现为列出网站上所有书籍的索引页,那么您可以使用 递归选项 和蜘蛛选项,wget 将很乐意跟踪 http 中的任何链接://something/books 索引 页。

It depends on the webserver and the configuration of the server. Strictly speaking the URL is not a directory path, so the http://something/books/* is meaningless.

However if the web server implements the path of http://something/books to be a index page listing all the books on the site, then you can play around with the recursive option and spider options and wget will be happy to follow any links which is in the http://something/books index page.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文