采集微信公众号文章遇到的问题!?

发布于 2022-09-03 23:41:43 字数 651 浏览 21 评论 0

代码很简单:

import requests
url = "http://weixin.sogou.com/weixin?type=1&query=luoji"
for i in range(1,200):

    headers = {"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36",
               "Referer":"http://weixin.sogou.com/weixin?type=1&query=luojisw"
               }
    response = requests.get(url,headers=headers)
    print ("罗技" in response.content.decode())

因为一开始访问的比较猛,所以访问了大约12个页面以后,就被禁止掉了.
但是很奇怪,本地的浏览器都可以正常访问!?~~??一般封ip不是连我这个都禁止了~??

现在不管怎么修改,(完全模拟他的浏览器头),采集的话,也会出现空页面....如何才能顺利的采集下去?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

暗藏城府 2022-09-10 23:41:43

用 requests.Session ,它会自动管理cookie

>>> import requests as r
>>> ssn = r.Session()
>>> ssn.headers = headers # 尽量补齐必须的头信息
>>> rsp = ssn.get(url)
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文