Robots.txt:禁止子目录但允许目录

发布于 2024-10-25 12:10:56 字数 371 浏览 1 评论 0原文

我想允许抓取以下文件:

/directory/

但不允许抓取以下文件:

/directory/subdirectory/

正确的 robots.txt 指令:

User-agent: *
Disallow: /subdirectory/

恐怕如果我不允许 /directory/subdirectory/ 我将禁止爬行 /directory/ 中的所有文件,这是我不想做的,所以我使用是否正确:

User-agent: *
Disallow: /subdirectory/

I want to allow crawling of files in:

/directory/

but not crawling of files in:

/directory/subdirectory/

Is the correct robots.txt instruction:

User-agent: *
Disallow: /subdirectory/

I'm afraid that if I disallowed /directory/subdirectory/
that I would be disallowing crawling of all files in /directory/ which I do not want to do, so am I correct in using:

User-agent: *
Disallow: /subdirectory/

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

一花一树开 2024-11-01 12:10:56

你想太多了:

User-agent: *
Disallow: /directory/subdirectory/

是正确的。

You've overthinking it:

User-agent: *
Disallow: /directory/subdirectory/

is correct.

赴月观长安 2024-11-01 12:10:56
User-agent: *
Disallow: /directory/subdirectory/

蜘蛛并不傻,它们可以解析路径:)

User-agent: *
Disallow: /directory/subdirectory/

Spiders aren't stupid, they can parse a path :)

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文