Google Sitemap 和 Robots.txt 问题

发布于 2024-08-05 12:05:15 字数 491 浏览 4 评论 0原文

我们的网站上有一个站点地图,http://www.gamezebo.com/sitemap.xml

网站管理员中心报告网站地图中的某些网址被我们的 robots.txt 阻止,请参阅 gamezebo.com/robots.txt!尽管这些 url 在 Robots.txt 中并未被禁止。还有其他此类网址,例如,gamezebo.com/gamelinks 出现在我们的站点地图中,但它被报告为“URL 受 robots.txt 限制”。

另外,我在网站管理员中心有这个解析结果,上面写着“第 21 行:抓取延迟:Googlebot 忽略了 10 条规则”。这是什么意思?

我很感谢你的帮助,

谢谢。

We have a sitemap at our site, http://www.gamezebo.com/sitemap.xml

Some of the urls in the sitemap, are being reported in the webmaster central as being blocked by our robots.txt, see, gamezebo.com/robots.txt ! Although these urls are not Disallowed in Robots.txt. There are other such urls aswell, for example, gamezebo.com/gamelinks is present in our sitemap, but it's being reported as "URL restricted by robots.txt".

Also I have this parse result in the Webmaster Central that says, "Line 21: Crawl-delay: 10 Rule ignored by Googlebot". What does it mean?

I appreciate your help,

Thanks.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

初懵 2024-08-12 12:05:15

抓取延迟不是 robots.txt 格式的实际规范,因此该行将被忽略...如果您愿意,可以在 Google 网站站长工具 下的设置 >抓取率

the crawl delay is not an actual specification in robots.txt format so that line will be ignored... you can set a custom crawl rate if you want to in google webmaster tools under settings > crawl rate

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文