如何让某些页面不被搜索引擎索引?

发布于 2024-10-15 00:08:33 字数 108 浏览 9 评论 0原文

我做到了:

<meta name="robots" content="none"/>

这是最好的方法吗?还是有更好的方法?

I did:

<meta name="robots" content="none"/>

Is that the best way to go about it, or is there a better way?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

归途 2024-10-22 00:08:33

您可以在站点的根目录中创建一个名为 robots.txt 的文件。格式是这样的:

User-agent: (user agent string to match)
Disallow: (URL here)
Disallow: (other URL here)
...

示例:

User-agent: *
Disallow: /

将使(好的)机器人不会索引您网站上的任何内容。当然,有些机器人会完全忽略robots.txt,但对于那些尊重它的机器人来说,这是您最好的选择。

如果您想了解有关 robots.txt 文件的更多信息,请参阅 http://www.robotstxt.org/

You can create a file called robots.txt in the root of your site. The format is this:

User-agent: (user agent string to match)
Disallow: (URL here)
Disallow: (other URL here)
...

Example:

User-agent: *
Disallow: /

Will make (the nice) robots not index anything on your site. Of course, some robots will completely ignore robots.txt, but for the ones that honor it, it's your best bet.

If you'd like more information on the robots.txt file, please see http://www.robotstxt.org/

蝶…霜飞 2024-10-22 00:08:33

您可以使用 robots.txt 文件来指示搜索引擎不要对哪些页面建立索引。

http://www.google.com/support /webmasters/bin/answer.py?hl=en&answer=156449

或者在每个页面中使用元 noindex 标记。

You could use a robots.txt file to direct search engines which pages not to index.

http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=156449

Or use the meta noindex tag in each page.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文