抓取到页面中的pdf地址后,如何下载到本地?
想从一个网站上批量下载文章,现在可以得到文章的名字。
但是打开pdf网页后,连接中的空格被替换成了 %20
这样的字符。
字符替换我自己可以处理,但是有了链接后怎么下载呢?
也就是说怎么执行浏览器里save link as
这个动作?
我如何向服务器发送这种请求并下载这些文章?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
urlretrieve(url, filename=None, reporthook=None, data=None)
试一试这个函数,可以把url下载到本地。
%20代表的意思就是空格啊
你再处理回来不就好了
网上查了一下,发现解决这个问题还是蛮简单的。
可以参考这里
直接