wget“镜像” pdf链接到不同的域

发布于 2024-12-05 20:59:01 字数 494 浏览 1 评论 0原文

网页包含一个 链接到 pdf(注意不同的域)。

我可以使用 wget 直接下载 pdf,但似乎无法识别正确的 wget 命令行选项来“镜像”包括此链接 pdf 的网页。我尝试使用

  • -p
  • --span-hosts
  • -D
  • --accept

等选项组合,但没有成功。

可以使用 wget (或其他命令行工具)下载链接的 pdf-s 吗?

感谢

Webpage contains a link to a pdf (note the different domains).

I can use wget to directly download the pdf, but cannot seem to identify the correct wget command line options to "mirror" the webpage including this linked pdf. I tried to use combinations of options like

  • -p
  • --span-hosts
  • -D
  • --accept

with no success.

Can wget (or some other command line tool) be used to download linked pdf-s?

Thank

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

爱的那么颓废 2024-12-12 20:59:01

尝试解析 http://www.yowconference.com.au/brisbane/data/35 .js。 (我用 HttpFox 找到了这个网址。)格式化代码后(例如使用 http://jsbeautifier.org/)很容易 grep 出 pdf 文件的 url。

Try parsing http://www.yowconference.com.au/brisbane/data/35.js. (I found this url with HttpFox.) After formatting the code (for example with http://jsbeautifier.org/) it's easy to grep out the url of pdf files.

何止钟意 2024-12-12 20:59:01

虽然 pdf 链接显示在浏览器中,但页面源不包含下载链接。因此 wget 无法查看/跟踪链接,因为它并没有真正“处理”页面。

While the pdf link is shown in browsers, the page source does not contain the download link. So wget does not get to see/follow the link, as it doesn't really "process" the page.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文