抓取到页面中的pdf地址后,如何下载到本地?

发布于 2022-09-02 09:55:21 字数 182 浏览 12 评论 0

想从一个网站上批量下载文章,现在可以得到文章的名字。
但是打开pdf网页后,连接中的空格被替换成了 %20这样的字符。
字符替换我自己可以处理,但是有了链接后怎么下载呢?
也就是说怎么执行浏览器里save link as这个动作?
我如何向服务器发送这种请求并下载这些文章?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

べ繥欢鉨o。 2022-09-09 09:55:21

urlretrieve(url, filename=None, reporthook=None, data=None)
试一试这个函数,可以把url下载到本地。

甜味超标? 2022-09-09 09:55:21

%20代表的意思就是空格啊
你再处理回来不就好了

无敌元气妹 2022-09-09 09:55:21

网上查了一下,发现解决这个问题还是蛮简单的。
可以参考这里

直接

url = 'FILE ADDR'
r = requests.get(url)
with open('1.pdf', 'wb') as f:
    f.write(r.content)
    
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文