如何通过 robots.txt 排除特定文件夹

发布于 2024-10-02 02:16:17 字数 146 浏览 2 评论 0原文

我想从搜索引擎的索引中排除任何文件夹中名为“ajax”的所有子文件夹。

示例:

.com/a/ajax
.com/b/ajax
.com/c/ajax

这可以通过 robots.txt 实现吗?

I want to exclude all subfolders named "ajax" in any folder from indexing by search engines.

Examples:

.com/a/ajax
.com/b/ajax
.com/c/ajax

Is this possible via robots.txt ?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

人生百味 2024-10-09 02:16:17

只有明确列出每个文件夹才有可能。没有通配符支持来完成您想要的事情类型。 robots.txt 排除标准在这方面有点缺乏。

It's only possible if you list out each folder explicitly. There is no wildcard support to accomplish the type of thing you want. The robots.txt exclusion standard is a little lacking in this respect.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文