请求机器人重新解析 robots.txt

发布于 2024-12-20 08:05:12 字数 307 浏览 0 评论 0原文

我正在编写一个代理服务器,将 youtube.com 映射到另一个域(这样用户就可以轻松地从德国等国家/地区访问 youtube,而无需审查搜索结果和视频)。

不幸的是,我的 robots.txt 中有一个错误。现在已经修复了,但是Baiduspider 获取了我的旧robots.txt,并且几天来一直在尝试为整个网站建立索引。 因为 Youtube 是一个相当大的网站,我认为这个过程不会很快结束:-)

我已经尝试将 baiduspider 重定向到另一个页面并向其发送 404,但它已经解析到许多路径。

对此我能做什么?

I am writing a proxy server that maps youtube.com to another domain (so users can easily access youtube from countries like Germany without search results and videos being censored).

Unfortunately there was a bug in my robots.txt. Its fixed now, but Baiduspider got my old robots.txt and has been trying to index the whole website for a couple of days.
Because Youtube is a quite big website, I don't think this process will end soon :-)

I already tried redirecting baiduspider to another page and sending it a 404, but it already parsed to many paths.

What can I do about this?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

欢你一世 2024-12-27 08:05:12

停止处理来自Baiduspider的请求

,并将lighttpd附加到lighttpd.conf,

$HTTP["useragent"] =~ "Baiduspider" {url.access-deny = ( "" )}

迟早Baiduspider应该重新获取robots.txt
(参见http://blog.bauani.org/2008/10 /baiduspider-spider-english-faq.html)

Stop processing requests from Baiduspider

with lighttpd append to lighttpd.conf

$HTTP["useragent"] =~ "Baiduspider" {url.access-deny = ( "" )}

sooner or later Baiduspider should refetch the robots.txt
(see http://blog.bauani.org/2008/10/baiduspider-spider-english-faq.html)

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文