如何删除 Google 索引中的多余页面?
已发表: 2023-12-06假设您有一个电子商务网站,其中包含数千种产品,每种产品的尺寸和颜色各不相同。 您可以使用 Google Search Console 索引覆盖率报告来查看您网站的 Google 搜索结果中的索引页面列表。
令您惊讶的是,您看到的页面比网站应有的页面多得多。 为什么会发生这种情况?如何摆脱它们?
我在 YouTube 上的“向我们提问”系列中回答了这个问题。 这是视频,然后您可以在下面阅读有关此常见问题及其解决方案的更多信息。
- 为什么这些“额外”的网页会出现在 Google 索引中?
- 如何删除 Google 索引中的“额外”网页?
- 概括
- 常见问题解答:如何从网站的 Google 索引中消除多余的页面?
为什么这些“额外”的网页会出现在 Google 索引中?
这个问题对于电子商务网站来说很常见。 “额外”网页可能会出现在 Google 索引中,因为您的电子商务网站上会生成额外的 URL。
操作方法如下:当人们在网站上使用搜索参数来指定产品的某些尺寸或颜色时,通常会针对该尺寸或颜色选择自动生成新的 URL。
这会导致一个单独的网页。 即使它不是“单独”的产品,如果 Google 通过链接发现该网页,则可以像主产品页面一样对其进行索引
发生这种情况时,并且您有多种尺寸和颜色组合,最终可能会为一种产品提供许多不同的网页。 现在,如果 Google 发现这些网页 URL,那么您最终可能会在 Google 索引中找到一种产品的多个网页。
如何删除 Google 索引中的“额外”网页?
使用规范标签,您可以让所有这些产品变体 URL 指向同一原始产品页面。 这是处理近乎重复的内容(例如颜色变化)的正确方法。
以下是 Google 关于使用规范标签来解决此问题的说法:
规范 URL 是 Google 认为在您网站上的一组重复页面中最具代表性的页面 URL。 例如,如果您有同一页面的网址(example.com?dress=1234 和 example.com/dresses/1234),Google 会选择其中一个作为规范网址。 页面不需要完全相同; 列表页的排序或过滤方面的微小更改不会使页面变得唯一(例如,按价格排序或按项目颜色过滤) 。
谷歌继续说道:
如果您有一个可以通过多个 URL 访问的页面,或者具有相似内容的不同页面……Google 会将这些视为同一页面的重复版本。 Google 将选择一个网址作为规范版本并对其进行抓取,而所有其他网址将被视为重复网址并减少抓取频率。
如果您没有明确告诉 Google 哪个 URL 是规范的,Google 将为您做出选择,或者可能认为它们具有相同的权重,这可能会导致不良行为……
但是,如果您根本不希望这些“额外”页面被编入索引怎么办? 我认为,在这种情况下,规范的解决方案是可行的方法。
但是人们过去还使用过另外两种解决方案来将页面从索引中取出:
- 使用 robots.txt 阻止页面(不推荐,我稍后会解释原因)
- 使用机器人元标记来阻止单个页面
Robots.txt 选项
使用 robots.txt 阻止网页的问题在于,使用它并不意味着 Google 会从索引中删除网页。
根据谷歌搜索中心:
robots.txt 文件告诉搜索引擎抓取工具抓取工具可以访问您网站上的哪些网址。 这主要用于避免您的网站因请求而超载; 它不是一种将网页排除在 Google 之外的机制。
此外,robots.txt 中的 disallow 指令并不能保证机器人不会抓取该页面。 这是因为 robots.txt 是一个自愿系统。 然而,主要搜索引擎机器人很少不遵守您的指令。
无论哪种方式,这都不是最佳的首选。 谷歌建议不要这样做。
机器人元标记选项
以下是 Google 关于机器人元标记的说法:
robots 元标记可让您利用精细的、特定于页面的方法来控制如何对单个页面进行索引并在 Google 搜索结果中向用户提供服务。
将机器人元标记放置在任何给定网页的 <head> 部分。 然后,鼓励机器人通过 XML 站点地图提交或自然方式抓取该页面(这可能最多需要 90 天)。
当机器人回来抓取页面时,它们会遇到机器人元标记并理解指令,以便不在搜索结果中显示该页面。
概括
所以,回顾一下:
- 使用规范标签是解决 Google 索引“额外”页面问题(电子商务网站的常见问题)的最佳且最常见的解决方案。
- 如果您根本不希望对页面建立索引,请考虑使用机器人元标记来指导搜索引擎机器人如何处理这些页面。
仍然感到困惑或希望有人为您解决这个问题吗? 我们可以帮助您处理多余的页面,并将其从 Google 索引中删除。 在这里安排免费咨询。
常见问题解答:如何从网站的 Google 索引中消除多余的页面?
您网站的 Google 索引中存在额外页面的问题可能是一个重大障碍。 这些多余页面通常源于动态内容生成,例如电子商务网站上的产品变化,从而创建了影响网站性能的混乱索引。
了解根本原因至关重要。 当各种产品属性触发为单个产品生成多个 URL 时,电子商务网站尤其面临挑战。 这可能会导致许多索引页面,影响您网站的搜索引擎优化和用户体验。
使用规范标签是解决这个问题最可靠的解决方案。 规范标签向 Google 发出页面首选版本的信号,将索引功能整合到单个具有代表性的 URL 上。 谷歌本身推荐这种方法,强调其在处理近乎重复的内容方面的有效性。
虽然有些人可能会考虑使用 robots.txt 来阻止网页,但这并不是最佳选择。 Google 将 robots.txt 解释为控制爬虫访问的指令,而不是从索引中删除的工具。 相比之下,机器人元标记提供了更有针对性的方法,允许精确控制单个页面索引。
规范标签仍然是首选解决方案。 但是,如果强烈倾向于从索引中完全删除,则机器人元标记可以成为战略盟友。 平衡对简化索引的渴望与 SEO 最佳实践是有效优化在线形象的关键。
掌握从网站的 Google 索引中消除多余页面涉及到理解问题、实施规范标签等最佳实践以及考虑特定场景的替代方案的战略组合。 通过采用这些策略,网站管理员可以增强网站的搜索引擎优化、改善用户体验并保持干净高效的在线形象。
分步程序:
- 识别额外页面:进行彻底的审核以查明您网站的 Google 索引中的所有多余页面。
- 确定根本原因:了解生成这些页面的原因,重点关注动态内容元素。
- 优先考虑规范标签:强调使用规范标签作为近乎重复内容的主要解决方案。
- 实施规范标签:将规范标签应用到所有相关页面,指定用于整合的首选版本。
- 检查 Google 建议:使策略与 Google 指南保持一致,确保兼容性和遵守。
- 评估 Robots.txt 选项:在考虑 robots.txt 之前了解限制和潜在缺点。
- 部署机器人元标记:如有必要,有策略地使用机器人元标记来控制特定页面上的索引。
- 平衡 SEO 影响:考虑每个解决方案对 SEO 和用户体验的影响,以便做出明智的决策。
- 定期监控:建立例行程序来监控指数变化并评估已实施策略的有效性。
- 迭代优化:根据不断发展的网站动态和 Google 算法不断完善和优化策略。
根据您网站的独特特征和不断变化的 SEO 环境,继续完善和调整这些步骤。