如何从谷歌索引中排除网页的一部分?

发布于 2024-08-17 00:20:51 字数 73 浏览 9 评论 0原文

有一种方法可以从谷歌索引中排除完整页面。但是有没有办法专门从谷歌的抓取中排除网页的某些部分呢?例如,排除通常包含不相关内容的侧边栏?

There's a way of excluding complete page(s) from google's indexing. But is there a way to specifically exclude certain part(s) of a web page from google's crawling? For example, exclude the side-bar which usually contains unrelated contents?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

很酷又爱笑 2024-08-24 00:20:51

您可以使用 IFRAME 标记包含您想要在 Googlebot 中隐藏的页面部分,并阻止对 robots.txt 文件中包含的文件进行索引。

添加 iframe 以将侧边栏包含在页面中

<iframe src ="sidebar.asp" width="100%" height="300">
    </iframe>

要在 robots.txt 文件中添加的规则以阻止蜘蛛

user-agent: *
disallow: sidebar.asp

You can include with an IFRAME tag the part of the page that you want hide at Googlebot and block the indexing of the file included from the robots.txt file.

add the iframe for include the side-bar in your page

<iframe src ="sidebar.asp" width="100%" height="300">
    </iframe>

here the rules to be added in the robots.txt file for block the spider

user-agent: *
disallow: sidebar.asp
嘿咻 2024-08-24 00:20:51

如果您是为了 AdSense 执行此操作,这是一篇关于如何从抓取工具中排除内容的文章。如果您不希望 Google 跟踪链接,可以为其指定 rel="nofollow" 属性。不然的话,恐怕你在这里就不走运了。

可以做的其他事情,但我不一定建议这样做,是在渲染页面之前检测用户代理,如果它是蜘蛛或机器人,则不显示您想要的页面部分排除。

If you're doing this for AdSense, here's an article on how to exclude content from the scraper. If you don't want Google to follow links, you can give them a rel="nofollow" attribute. Otherwise, I'm afraid you may be out of luck here.

Something else you could do, but I wouldn't necessarily recommend doing, is detecting the user agent before rendering your page, and if it's a spider or bot, not showing the portions of your page you want to exclude.

七色彩虹 2024-08-24 00:20:51

Google 曾经有 / 标签,您可以将这些标签包裹在内容中,但它已从他们的文档中消失了。它可能仅适用于使用 Google Search Appliance (RIP) 的网站。

Wikipedia noindex 页面列出了搜索引擎用来识别的一堆其他评论、标签和属性尊重页面的不索引部分。搜索引擎优化现在是一场战争,搜索引擎只能自己决定索引什么。

Google used to have <!--googleoff: all--> / <!--googleon: all--> tags that you could wrap around content, but it's gone from their documentation. It might have only been for sites using Google's Search Appliance (RIP).

The Wikipedia noindex page lists a bunch of other comments, tags, and attributes that search engines used to respect to not index parts of a page. Search Engine Optimization is such a war now that search engines just decide on their own what to index.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文