python3爬虫报错:HTTP Error 500: Internal Server Error

发布于 2022-09-07 22:07:22 字数 1343 浏览 18 评论 0

之前写的一个爬虫用了半年,最近不能用了,报错500,被爬网站http://xilin123.cn/ 可以正常打开

打开开发者工具
图片描述
图片描述
发现Status Code是500,所以导致我程序报错
神了奇了,500的网页也可以正常访问,正常应该是200啊!!!
是不是他们用了什么反爬虫手段

import urllib.request as urllib2
import random

class HtmlDownloader(object):
    def download(self, url):
        if url is None:
            return None

        ua_list = [
            "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
            "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
            "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",
            "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",
            "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"
        ]

        user_agent = random.choice(ua_list)

        request = urllib2.Request(url=url)
        request.add_header('User-Agent', user_agent)

        response = urllib2.urlopen(request)
        html = response.read()
       
        page = html.decode('GBK')
        return page

该怎么处理?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文