保护 Plesk 登录页面免受搜索引擎的关注

发布于 2024-07-22 03:45:52 字数 440 浏览 5 评论 0原文

我想知道是否可以保护“https://www.DOMAIN.com:8443” 搜索引擎列出的 URL 可能使用 htaccess 将 8443 端口从“DOMAIN”重定向到其他地方?

这是 VZPP Plesk - 登录 登录 Plesk。 请输入您的 登录信息。 用户名。 密码。 界面语言。 用户默认, 英语(美国)、德语 (德国) ... https://www.DOMAIN.com:8443/ -

I was wondering if would it be possible to protect the "https://www.DOMAIN.com:8443" URL from search engines listing perhaps using the htaccess to redirect the 8443 port from "DOMAIN" to elsewhere?

This is the VZPP Plesk - Login Login to Plesk. Please enter your
login information. Username. Password.
Interface Language. User Default,
ENGLISH (United States), GERMAN
(Germany) ...
https://www.DOMAIN.com:8443/ -

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

GRAY°灰色天空 2024-07-29 03:45:52

尝试使用(如果我正确理解你的问题)

<meta name="robots" content="noindex,nofollow,noarchive"/>

并谷歌搜索robots.txt...不记得语法...

Try to use (if I've understood your question right)

<meta name="robots" content="noindex,nofollow,noarchive"/>

And google about robots.txt... don't remember the syntax...

葬花如无物 2024-07-29 03:45:52

您可以在此处阅读有关使用 mod_rewrite 进行用户代理检测的信息,如何为 Google、Yahoo! 和 < a href="http://blogs.msdn.com/webmaster/archive/2008/09/12/is-your-robots-txt-file-on-the-clock.aspx" rel="nofollow noreferrer">MSN /Live Search - 然而,这一切都假设机器人是理智且合作的。 对于攻击性的“黑帽”机器人,我们几乎无能为力。

You can read about using User-Agent detection with mod_rewrite here, how to setup your robots.txt for Google, Yahoo!, and MSN/Live Search - however, this all assumes sane and cooperative bots. There's little that can be done to protect against agressive, 'black-hat' bots.

热情消退 2024-07-29 03:45:52

您需要创建一个包含以下内容的 robots.txt 文件:

User-agent: *
Disallow: /

并将其放置在 usr/local/psa/admin/htdocs 中。 请注意,该位置可能会根据您的安装而有所不同。

然后,验证 http://my.domain.com:8443/robots.txt 上提供的文件是否指向此文件并且具有相同的内容。 另请确保http://my.domain.com/robots.txt(为您的公共站点提供服务的端口[通常是隐含端口 80])指向相同的文件。 如果是这样,那么您的网站根本不会被索引。

该文件将告诉 Google 和其他机器人不要索引 Plesk 页面,例如登录页面。 有关 robots.txt 的详细信息,请查看有关 robots.txt 的 Google 帮助页面从 Google 搜索结果中删除网页或网站。 此外,您可能需要将您的域名添加到 Google 网站站长工具,并检查 Plesk 页面是否有通过检查删除页面确实已删除。

You will need to create a robots.txt file containing the following:

User-agent: *
Disallow: /

and place it in usr/local/psa/admin/htdocs. Note that the location might vary depending on your installation.

Afterwards, verify that the file served at http://my.domain.com:8443/robots.txt points to this file and has the same contents. Also make sure that http://my.domain.com/robots.txt (the port serving your public site [usually the implied port 80]) does not point to the same file. If it does then you site won't be indexed at all.

This file will tell Google and other bots to not index the Plesk pages such as the login page. For more info about robots.txt check the Google Help page about robots.txt or Remove a page or site from Google's search results. Additionally you may want to add your domain to the Google Webmaster Tools and check that the Plesk pages have indeed been removed by checking the removals page.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文