wget“镜像” pdf链接到不同的域
我可以使用 wget 直接下载 pdf,但似乎无法识别正确的 wget 命令行选项来“镜像”包括此链接 pdf 的网页。我尝试使用
- -p
- --span-hosts
- -D
- --accept
等选项组合,但没有成功。
可以使用 wget (或其他命令行工具)下载链接的 pdf-s 吗?
感谢
Webpage contains a link to a pdf (note the different domains).
I can use wget to directly download the pdf, but cannot seem to identify the correct wget command line options to "mirror" the webpage including this linked pdf. I tried to use combinations of options like
- -p
- --span-hosts
- -D
- --accept
with no success.
Can wget (or some other command line tool) be used to download linked pdf-s?
Thank
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
尝试解析 http://www.yowconference.com.au/brisbane/data/35 .js。 (我用 HttpFox 找到了这个网址。)格式化代码后(例如使用 http://jsbeautifier.org/)很容易 grep 出 pdf 文件的 url。
Try parsing http://www.yowconference.com.au/brisbane/data/35.js. (I found this url with HttpFox.) After formatting the code (for example with http://jsbeautifier.org/) it's easy to grep out the url of pdf files.
虽然 pdf 链接显示在浏览器中,但页面源不包含下载链接。因此
wget
无法查看/跟踪链接,因为它并没有真正“处理”页面。While the pdf link is shown in browsers, the page source does not contain the download link. So
wget
does not get to see/follow the link, as it doesn't really "process" the page.