Googlebots 忽略 robots.txt?

发布于 2024-07-10 01:01:10 字数 1477 浏览 10 评论 0原文

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

吃素的狼 2024-07-17 01:01:10

它应该是 Disallow:,而不是 Disabled:

It should be Disallow:, not Disabled:.

傲鸠 2024-07-17 01:01:10

也许可以尝试一下 Google robots.txt 检查器

Maybe give the Google robots.txt checker a try

撩发小公举 2024-07-17 01:01:10

Google 有一个用于检查 robots.txt 条目的分析工具,在此处阅读相关信息

您可能还想检查“流氓”机器人的 IP 地址,看看它们是否确实属于 Google 所有。

Google have an analysis tool for checking robots.txt entries, read about it here

You might also want to check the IP addresses of the "rogue" robots to see if they really are owned by Google.

帅气称霸 2024-07-17 01:01:10

我还相信机器人会向下浏览页面并采取第一个适用于它的指令。 在你的情况下,Googlebot和Googlebot-Image永远不会看到他们的具体指令,因为他们会首先尊重“用户代理:*”。

忽略这个答案。 我发现的信息表明情况并非如此。 机器人应该找到特定于它的指令并尊重它

Also I believe that the bot goes down the page and takes the first directive that applies to it. In your case, Googlebot and Googlebot-Image would never see their specific directives because they would respect the "User-Agent: *" first.

Disregard this answer. I found information that points to this not being the case. The bot should find the directive specific to it and respect it

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文