如何从html链接抓取并下载所有pdf文件?
这是我抓取所有 pdf 链接的代码,但它不起作用。如何从这些链接下载并保存到我的计算机上的文件夹中?
<?php
set_time_limit(0);
include 'simple_html_dom.php';
$url = 'http://example.com';
$html = file_get_html($url) or die ('invalid url');
//extrack pdf links
foreach($html->find('a[href=[^"]*\.pdf]') as $element)
echo $element->href.'<br>';
?>
This is my code to crawl all pdf links but it doesn't work. How to download from those links and save to a folder on my computer?
<?php
set_time_limit(0);
include 'simple_html_dom.php';
$url = 'http://example.com';
$html = file_get_html($url) or die ('invalid url');
//extrack pdf links
foreach($html->find('a[href=[^"]*\.pdf]') as $element)
echo $element->href.'<br>';
?>
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
除了上述拼写错误之外,您的代码如何“不起作用”?
How does your code "not work", other than because of above typo?
你研究过 phpquery 吗?
http://code.google.com/p/phpquery/
Have you looked into into phpquery?
http://code.google.com/p/phpquery/
这里更简单的解决方案是:
https://simplehtmldom.sourceforge.io/manual.htm
More simple solution here will be:
https://simplehtmldom.sourceforge.io/manual.htm