Google 색인에서 추가 페이지를 어떻게 제거합니까?

게시 됨: 2023-12-06

사이버 공간에 떠다니는 웹페이지.

크기와 색상이 다양한 수천 개의 제품이 포함된 전자상거래 웹사이트가 있다고 가정해 보겠습니다. Google Search Console 색인 범위 보고서를 사용하면 웹사이트의 Google 검색 결과에서 색인이 생성된 페이지 목록을 볼 수 있습니다.

놀랍게도 웹사이트에 있어야 할 것보다 훨씬 더 많은 페이지가 표시됩니다. 왜 그런 일이 발생하며 어떻게 제거합니까?

저는 YouTube의 '무엇이든 물어보세요' 시리즈에서 이 질문에 답하고 있습니다. 다음은 비디오입니다. 아래에서 이 일반적인 문제와 해결 방법에 대해 자세히 알아볼 수 있습니다.

  • 이러한 '추가' 웹페이지가 Google 색인에 표시되는 이유는 무엇입니까?
  • Google 색인에서 "추가" 웹페이지를 어떻게 제거합니까?
  • 요약
  • FAQ: 내 웹사이트의 Google 색인에서 추가 페이지를 제거하려면 어떻게 해야 합니까?

이러한 "추가" 웹페이지가 Google 색인에 표시되는 이유는 무엇입니까?

이 문제는 전자상거래 웹사이트에서 흔히 발생합니다. 전자상거래 웹사이트에서 추가 URL이 생성되기 때문에 '추가' 웹페이지가 Google 색인에 표시될 수 있습니다.

방법은 다음과 같습니다. 사람들이 웹사이트에서 검색 매개변수를 사용하여 제품의 특정 사이즈나 색상을 지정하는 경우 해당 사이즈나 색상 선택에 대해 새 URL이 자동으로 생성되는 것이 일반적입니다.

이로 인해 별도의 웹페이지가 생성됩니다. '별도의' 상품이 아니더라도 Google에서 링크를 통해 검색하면 해당 웹페이지가 기본 상품 페이지처럼 색인화될 수 있습니다.

이런 일이 발생하고 크기와 색상 조합이 많으면 하나의 제품에 대해 다양한 웹페이지가 표시될 수 있습니다. 이제 Google이 해당 웹페이지 URL을 발견하면 Google 색인에 하나의 제품에 대한 여러 웹페이지가 포함될 수 있습니다.

Google 색인에서 "추가" 웹페이지를 어떻게 제거합니까?

표준 태그를 사용하면 모든 제품 변형 URL이 동일한 원본 제품 페이지를 가리키도록 할 수 있습니다. 이는 색상 변경과 같이 거의 중복된 콘텐츠를 처리하는 올바른 방법입니다.

이 문제를 해결하기 위해 표준 태그를 사용하는 것에 대해 Google이 말하는 내용은 다음과 같습니다.

표준 URL은 Google이 귀하 사이트의 중복 페이지 집합을 가장 잘 대표한다고 생각하는 페이지의 URL입니다. 예를 들어 동일한 페이지에 대한 URL(example.com?dress=1234 및 example.com/dresses/1234)이 있는 경우 Google은 하나를 표준으로 선택합니다. 페이지가 완전히 동일할 필요는 없습니다. 목록 페이지 정렬 또는 필터링의 사소한 변경(예: 가격 기준 정렬 또는 항목 색상 기준 필터링)은 페이지를 고유하게 만들지 않습니다 .

구글은 계속해서 이렇게 말합니다.

여러 URL로 액세스할 수 있는 단일 페이지가 있거나 유사한 콘텐츠가 포함된 여러 페이지가 있는 경우 Google은 이를 동일한 페이지의 중복 버전으로 간주합니다. Google은 하나의 URL을 표준 버전으로 선택하고 이를 크롤링하며, 다른 모든 URL은 중복 URL로 간주되어 크롤링 빈도를 줄입니다.

어떤 URL이 표준인지 Google에 명시적으로 알리지 않으면 Google에서 귀하를 대신하여 선택하거나 두 URL을 모두 동일한 가중치로 간주하여 원치 않는 동작이 발생할 수 있습니다.

하지만 "추가" 페이지의 색인이 전혀 생성되지 않도록 하려면 어떻게 해야 할까요? 내 생각에는 이 상황에서는 표준적인 해결책이 최선의 방법이라고 생각합니다.

하지만 과거에 사람들이 색인에서 페이지를 가져오기 위해 사용한 두 가지 다른 솔루션이 있습니다.

  1. robots.txt가 포함된 페이지 차단(권장되지 않음, 이유는 잠시 후에 설명하겠습니다)
  2. 로봇 메타 태그를 사용하여 개별 페이지 차단

Robots.txt 옵션

robots.txt를 사용하여 웹페이지를 차단할 때의 문제점은 이를 사용한다고 해서 Google이 색인에서 웹페이지를 삭제한다는 의미는 아니라는 것입니다.

Google 검색 센터에 따르면:

robots.txt 파일은 크롤러가 사이트에서 액세스할 수 있는 URL을 검색 엔진 크롤러에게 알려줍니다. 이는 주로 요청으로 인해 사이트에 과부하가 걸리는 것을 방지하는 데 사용됩니다. 이는 Google에서 웹페이지를 보호하기 위한 메커니즘이 아닙니다.

또한 robots.txt의 disallow 지시문은 봇이 페이지를 크롤링하지 않는다는 것을 보장하지 않습니다. robots.txt는 자발적인 시스템이기 때문입니다. 그러나 주요 검색 엔진 봇이 귀하의 지시를 따르지 않는 경우는 거의 없습니다.

어느 쪽이든 이것은 최적의 첫 번째 선택이 아닙니다. 그리고 Google은 이를 권장하지 않습니다.

로봇 메타 태그 옵션

로봇 메타 태그에 대해 Google이 말하는 내용은 다음과 같습니다.

로봇 메타 태그를 사용하면 개별 페이지의 색인을 생성하고 Google 검색결과에서 사용자에게 제공하는 방법을 제어하는 ​​세부적인 페이지별 접근 방식을 활용할 수 있습니다.

특정 웹페이지의 <head> 섹션에 로봇 메타 태그를 배치하세요. 그런 다음 XML 사이트맵 제출을 통해 또는 자연스럽게(최대 90일이 소요될 수 있음) 봇이 해당 페이지를 크롤링하도록 권장합니다.

봇이 다시 돌아와서 페이지를 크롤링하면 로봇 메타 태그를 발견하고 검색 결과에 페이지를 표시하지 말라는 지시어를 이해하게 됩니다.

요약

요약하면 다음과 같습니다.

  • 표준 태그를 사용하는 것은 전자상거래 웹사이트에서 흔히 발생하는 문제인 Google에서 색인이 생성되는 '추가' 페이지 문제에 대한 가장 좋고 가장 일반적인 솔루션입니다.
  • 페이지의 색인이 전혀 생성되지 않도록 하려면 로봇 메타 태그를 사용하여 해당 페이지를 처리하려는 방식을 검색 엔진 봇에 지시하는 것이 좋습니다.

아직도 혼란스럽거나 누군가가 이 문제를 해결해 주기를 원하시나요? 추가 페이지에 대해 도움을 드리고 Google 색인에서 해당 페이지를 제거해 드릴 수 있습니다. 여기에서 무료 상담을 예약하세요.

FAQ: 내 웹사이트의 Google 색인에서 추가 페이지를 제거하려면 어떻게 해야 합니까?

웹사이트의 Google 색인에 추가 페이지가 있다는 문제는 심각한 장애물이 될 수 있습니다. 이러한 잉여 페이지는 전자상거래 사이트의 제품 변형과 같은 동적 콘텐츠 생성으로 인해 사이트 성능에 영향을 미치는 복잡한 색인을 생성하는 경우가 많습니다.

근본 원인을 이해하는 것이 중요합니다. 특히 전자상거래 웹사이트는 다양한 제품 속성으로 인해 단일 제품에 대한 여러 URL이 생성될 때 문제에 직면합니다. 이로 인해 많은 색인이 생성된 페이지가 생겨 사이트의 SEO 및 사용자 경험에 영향을 미칠 수 있습니다.

표준 태그를 사용하는 것이 이 문제를 해결하는 가장 안정적인 솔루션입니다. 표준 태그는 선호하는 페이지 버전을 Google에 알리고 색인 생성 기능을 단일 대표 URL로 통합합니다. Google 자체에서는 거의 중복된 콘텐츠를 처리하는 데 있어 효율성을 강조하면서 이 방법을 권장합니다.

일부 사람들은 robots.txt를 사용하여 웹페이지를 차단하는 것을 고려할 수도 있지만 이는 최적의 방법은 아닙니다. Google은 robots.txt를 색인에서 제거하기 위한 도구가 아니라 크롤러 액세스를 제어하기 위한 명령으로 해석합니다. 이와 대조적으로 로봇 메타 태그는 개별 페이지 색인 생성을 정밀하게 제어할 수 있는 보다 타겟팅된 접근 방식을 제공합니다.

표준 태그는 여전히 유용한 솔루션입니다. 그러나 인덱스에서 완전히 제거하려는 강한 선호가 있는 경우 로봇 메타 태그가 전략적 동맹이 될 수 있습니다. 간소화된 색인에 대한 욕구와 SEO 모범 사례의 균형을 맞추는 것이 온라인 존재를 효과적으로 최적화하는 열쇠입니다.

웹사이트의 Google 색인에서 불필요한 페이지를 제거하려면 문제를 이해하고, 표준 태그와 같은 모범 사례를 구현하고, 특정 시나리오에 대한 대안을 고려하는 전략적 조합이 필요합니다. 이러한 전략을 채택함으로써 웹마스터는 사이트의 SEO를 강화하고 사용자 경험을 개선하며 깨끗하고 효율적인 온라인 상태를 유지할 수 있습니다.

단계별 절차:

  1. 추가 페이지 식별 : 철저한 감사를 수행하여 웹사이트의 Google 색인에서 모든 잉여 페이지를 찾아냅니다.
  2. 근본 원인 확인 : 동적 콘텐츠 요소에 중점을 두고 이러한 페이지가 생성되는 이유를 이해합니다.
  3. 표준 태그 우선순위 지정 : 거의 중복된 콘텐츠에 대한 기본 솔루션으로 표준 태그를 사용하는 것을 강조합니다.
  4. 표준 태그 구현 : 모든 관련 페이지에 표준 태그를 적용하여 통합을 위한 기본 버전을 지정합니다.
  5. Google 권장사항 확인 : 전략을 Google 가이드라인에 맞춰 호환성과 준수성을 보장합니다.
  6. Robots.txt 옵션 평가 : robots.txt를 고려하기 전에 제한 사항과 잠재적인 단점을 이해하십시오.
  7. 로봇 메타 태그 배포 : 로봇 메타 태그를 전략적으로 사용하여 필요한 경우 특정 페이지의 색인 생성을 제어합니다.
  8. SEO 영향의 균형 : 정보에 입각한 의사 결정을 위해 각 솔루션이 SEO 및 사용자 경험에 미치는 영향을 고려합니다.
  9. 정기 모니터링 : 지수 변화를 모니터링하고 구현된 전략의 효과를 평가하는 루틴을 설정합니다.
  10. 반복적 최적화 : 진화하는 사이트 역학과 Google 알고리즘을 기반으로 전략을 지속적으로 개선하고 최적화합니다.

웹사이트의 고유한 특성과 변화하는 SEO 환경에 따라 이러한 단계를 계속해서 개선하고 조정하세요.