Robots.txt 阻止访问所有 https:// 页面

发布于 2024-07-18 16:53:51 字数 1459 浏览 5 评论 0原文

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

源来凯始玺欢你 2024-07-25 16:53:51

我不知道它是否有效,机器人是否为不同的协议使用/请求不同的 robots.txt 。 但您可以为通过 HTTPS 的请求提供不同的 robots.txt

因此,当请求 http://example.com/robots.txt 时,您将传递正常的 robots.txt。 当请求 https://example.com/robots.txt 时,您会传递禁止一切的 robots.txt

I don’t know if it works, if the robots use/request different robots.txt for different protocols. But you could deliver a different robots.txt for requests over HTTPS.

So when http://example.com/robots.txt is requested, you deliver the normal robots.txt. And when https://example.com/robots.txt is requested, you deliver the robots.txt that disallows everything.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文