真的百度蜘蛛会每天100多台机器在你网站上抓数据吗?

发布于 2022-09-01 18:09:09 字数 366 浏览 23 评论 0

现在网站每天都有170台左右百度蜘蛛在抓数据,频率还不低,把网站都拖死了,我想请问真的百度蜘蛛会这么干吗?有么有可能这些ip模拟的呢?但是host后确实是百度蜘蛛

clipboard.png

clipboard.png

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

浅唱ヾ落雨殇 2022-09-08 18:09:09

蜘蛛一般都遵守robots协议,你可以通过在网站目录下放置robots.txt文件过滤相应的User-Agent,例如:hao123的robots hao123 robots

更多robots内容,参考:http://www.robotstxt.org/

时光礼记 2022-09-08 18:09:09

简单粗暴的方式、直接屏蔽好了

nginx中的配置

if ($http_user_agent ~* "Baiduspider") {
    return 403;
}
北城孤痞 2022-09-08 18:09:09

最合适的办法:

1.声明robots;
2.到百度站长平台,自主调整爬虫压力
内心荒芜 2022-09-08 18:09:09

怎么没人回答呢?啊啊啊

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文