我们网站上出现多个 404 请求。 是攻击还是只是错误的索引机器人?
我们的网站正在收到尝试访问不存在页面的请求。 通常这只是地址拼写错误的情况。 就像正确的链接是/Info/SiteMap.aspx,但错误的请求是/Inf/SiteMap.aspx,缺少“o”。 通常会有很多请求,比如一分钟内排20个。 全部抛出404。
是否是某些索引机器人的问题? 或者有人测试我们网站中的差距吗?
有什么经验或技巧吗?
Our site is receiving requests which try to access non existing pages. Usually it is only case of misspelled address. Like the right link is /Info/SiteMap.aspx, but the bad request is /Inf/SiteMap.aspx with missing 'o'. There are usually many request, like 20 in row in one minute. All throw 404.
Is it problem of some indexing robot? Or does someone test gaps in our site?
Have any experiences or tips?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
是的,请考虑以下事项。
发送请求的主机的 IP 地址 - 如果它们不同,但有多个 IP,我们可以怀疑这是使用僵尸进行的分布式攻击。
。 如果请求来自同一源,请检查请求之间的延迟。 一般来说,爬虫不会在请求之间使用极短的时间间隔。
索引机器人(爬虫)不执行“暴力”类型索引。 他们只是从一个页面检索链接并逐页递归地遍历。 所以造成这种情况的原因应该不是索引机器人。
检查是否有任何模式。 我的意思是顺序命名模式等。
Yes, Consider the following things.
The IP address of the host sending the requests - If they are distinct but several IPs we can suspect it as a distributed attack done using Zombies.
. If the requests are coming from same source, check the delay between requests. Generally crawlers do not use extremely short periods between the requests.
Indexing Robots (Crawlers) do not perform "Brute force" type indexing. They just retrieve the links from one page and recursively traverse page by page. So the reason for this should be not a indexing robot.
Check for any patterns. I mean a sequential naming pattern etc.