如何从文章网页中确定文章PDF下载链接?
我想从我的 DOI 列表中自动下载一些文章(大约 1500 篇)。使用 doi.org 我可以获得每个人的网站内容。但问题是每个网站都是独一无二的,我不知道如何在多个 href 中确定下载链接。请问,您能在 Python 中提出一些对实现这一目标有用的建议吗?
PS 演讲是关于免费访问的文章。所以我可以确定该链接存在。
I would like to download some articles from my DOI list automatically (about 1500). Using doi.org I can get a website content for every of them. But the problem is that every website is unique and I do not know how to determine a download link amongst a number of hrefs. Please, could you suggest anything useful for such aim in Python?
P. S. The speech is about free access articles. So I can be sure that the link exists.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
事实证明,最方便的方法是使用
metapub
库。请注意,它需要 Visual Studio C++ 2015 及更高版本。As it turned out, the most convenient way is to use
metapub
library. Note, that it demands Visual Studio C++ 2015 and recenter.