Search Console 커버리지 보고서 이해하기

게시 됨: 2019-08-15

커버리지 보고서 소개 및 데이터 해석 방법

Search Console 범위 보고서는 사이트에서 색인이 생성된 페이지에 대한 정보를 제공하고 Googlebot이 크롤링 및 색인을 생성하는 동안 문제가 발생한 URL을 나열합니다.
적용 범위 보고서의 기본 페이지에는 상태별로 그룹화된 사이트의 URL이 표시됩니다.

  • 오류: 페이지의 색인이 생성되지 않았습니다. 여기에는 여러 가지 이유가 있습니다. 페이지가 404로 응답하는 것, 소프트 404 페이지 등입니다.
  • 경고와 함께 유효함: 페이지가 인덱싱되었지만 문제가 있습니다.
  • 유효함: 페이지가 인덱싱됩니다.
  • 제외됨: 페이지의 색인이 생성되지 않았습니다. Google은 robots.txt의 noindex 태그 또는 메타 태그, 표준 태그 등과 같이 페이지 색인 생성을 방지하는 사이트 규칙을 따르고 있습니다.

이 범위 보고서는 이전 Google 검색 콘솔보다 훨씬 더 많은 정보를 제공합니다. Google은 공유하는 데이터를 실제로 개선했지만 여전히 개선이 필요한 부분이 있습니다.

아래에서 볼 수 있듯이 Google은 각 카테고리의 URL 수를 그래프로 표시합니다. 오류가 갑자기 증가한 경우 막대를 볼 수 있으며 이를 노출수와 연관시켜 오류 또는 경고가 있는 URL의 증가가 노출수를 감소시킬 수 있는지 판단할 수도 있습니다.

search console coverage report

사이트를 시작하거나 새 섹션을 만든 후 유효한 색인이 생성된 페이지의 수가 증가하는 것을 확인하려고 합니다. Google에서 새 페이지의 색인을 생성하는 데 며칠이 걸리지만 URL 검사 도구를 사용하여 색인 생성을 요청하고 Google에서 새 페이지를 찾는 시간을 줄일 수 있습니다.

search console coverage report

그러나 유효한 URL 수가 감소하거나 갑자기 급증하는 경우 오류 섹션에서 URL을 식별하고 보고서에 나열된 문제를 수정하는 것이 중요합니다. Google은 오류 또는 경고가 증가할 때 수행할 작업 항목에 대한 요약을 제공합니다.

Google은 오류가 무엇이며 해당 문제가 있는 URL의 수에 대한 정보를 제공합니다.

search console coverage report

Google Search Console은 100% 정확한 정보를 표시하지 않습니다. 실제로 버그 및 데이터 이상 현상에 대한 여러 보고가 있었습니다. 게다가 구글 서치콘솔은 업데이트에 시간이 걸리며, 데이터가 16일에서 20일 정도 늦어지는 것으로 알려져 있다. 또한 보고서에는 위의 이미지에서 볼 수 있듯이 오류 또는 경고 범주에 1000페이지가 넘는 목록이 표시되는 경우가 있지만 감사 및 확인을 위해 1000개의 URL 샘플만 보고 다운로드할 수 있습니다.

그럼에도 불구하고 이것은 사이트에서 색인 문제를 찾는 데 유용한 도구입니다.

특정 오류를 클릭하면 URL의 예가 나열된 세부정보 페이지를 볼 수 있습니다.

search console coverage report

위 이미지에서 볼 수 있듯이 이것은 404로 응답하는 모든 URL에 대한 세부정보 페이지입니다. 각 보고서에는 특정 오류에 대한 세부정보를 제공하는 Google 문서 페이지로 이동하는 "자세히 알아보기" 링크가 있습니다. Google은 또한 시간 경과에 따른 영향을 받는 페이지 수를 보여주는 그래프를 제공합니다.

각 URL을 클릭하면 이전 Google Search Console의 이전 "Fetch as Googlebot" 기능과 유사한 URL을 검사할 수 있습니다. 페이지가 robots.txt에 의해 차단되었는지 테스트할 수도 있습니다.

URL을 수정한 후 보고서에서 오류가 사라지도록 Google에 확인을 요청할 수 있습니다. 유효성 검사 상태가 "실패" 또는 "시작되지 않음"인 문제를 해결하는 데 우선 순위를 두어야 합니다.

사이트의 모든 URL이 색인 생성될 것으로 기대해서는 안 된다는 점을 언급하는 것이 중요합니다. Google은 웹마스터의 목표가 모든 표준 URL의 색인을 생성하는 것이어야 한다고 말합니다. 중복 또는 대체 페이지는 표준 페이지와 유사한 콘텐츠를 포함하므로 제외된 것으로 분류됩니다.

사이트에서 제외 범주에 여러 페이지가 포함되는 것은 정상입니다. 대부분의 웹사이트에는 색인 메타 태그가 없거나 robots.txt를 통해 차단된 여러 페이지가 있습니다. Google에서 중복 페이지나 대체 페이지를 식별하면 해당 페이지에 올바른 URL을 가리키는 표준 태그가 있는지 확인하고 유효한 카테고리에서 이에 상응하는 표준을 찾아야 합니다.

Google은 보고서 왼쪽 상단에 드롭다운 필터를 포함하여 알려진 모든 페이지, 제출된 모든 페이지 또는 특정 사이트맵의 URL에 대한 보고서를 필터링할 수 있습니다. 기본 보고서에는 Google에서 발견한 모든 URL을 포함하는 알려진 모든 페이지가 포함됩니다. 제출된 모든 페이지에는 사이트맵을 통해 보고한 모든 URL이 포함됩니다. 여러 사이트맵을 제출한 경우 각 사이트맵의 URL을 기준으로 필터링할 수 있습니다.

[사례 연구] 전략적 페이지의 크롤링 예산 늘리기

Managemento의 트래픽 대부분은 자연 검색에서 발생합니다. 이 트래픽은 주로 롱테일 검색에 의존하므로 수백만 개의 키워드를 동시에 최적화해야 합니다. 크롤링 예산이 빠르게 문제가 되었습니다.
사례 연구 읽기

오류, 경고, 유효한 URL 및 제외된 URL

오류

  • 서버 오류(5xx): Googlebot이 페이지 크롤링을 시도할 때 서버에서 500 오류를 반환했습니다.
  • 리디렉션 오류: Googlebot이 URL을 크롤링할 때 체인이 너무 길거나 리디렉션 루프가 있거나 URL이 최대 URL 길이를 초과했거나 리디렉션 체인에 잘못되거나 비어 있는 URL이 있기 때문에 리디렉션 오류가 발생했습니다.
  • 제출된 URL이 robots.txt에 의해 차단됨: 이 목록의 URL은 robts.txt 파일에 의해 차단됩니다.
  • 'noindex'로 표시된 제출된 URL: 이 목록의 URL에는 메타 로봇 ​​'noindex' 태그 또는 http 헤더가 있습니다.
  • 제출된 URL은 Soft 404인 것 같습니다. 존재하지 않는(제거되거나 리디렉션된) 페이지가 사용자에게 '페이지를 찾을 수 없음' 메시지를 표시하지만 HTTP 404 상태 코드를 반환하지 못하는 경우 소프트 404 오류가 발생합니다. Soft 404는 페이지가 404 상태 코드를 반환하거나 관련 페이지로 리디렉션하는 대신 홈 페이지로 리디렉션되는 것과 같이 페이지가 관련이 없는 페이지로 리디렉션될 때도 발생합니다.
  • 제출된 URL이 승인되지 않은 요청을 반환함(401): 인덱싱을 위해 제출된 페이지가 401 승인되지 않은 HTTP 응답을 반환합니다.
  • 제출된 URL을 찾을 수 없음(404): Googlebot이 페이지를 크롤링하려고 할 때 페이지가 404 Not Found 오류로 응답했습니다.
  • 제출된 URL에 크롤링 문제가 있음: Googlebot이 다른 카테고리에 속하지 않는 페이지를 크롤링하는 동안 크롤링 오류가 발생했습니다. 각 URL을 확인하고 어떤 문제가 있었는지 확인해야 합니다.

경고

  • 색인이 생성되었지만 robots.txt에 의해 차단됨: Googlebot이 페이지를 가리키는 외부 링크를 통해 액세스했기 때문에 페이지의 색인이 생성되었지만 페이지가 robots.txt에 의해 차단되었습니다. 페이지가 실제로 검색 결과에 표시되는 것을 차단해야 하는지 확실하지 않기 때문에 Google은 이러한 URL을 경고로 표시합니다. 페이지를 차단하려면 'noindex' 메타 태그를 사용하거나 noindex HTTP 응답 헤더를 사용해야 합니다.

Google이 정확하고 URL이 잘못 차단된 경우 Google이 페이지를 크롤링할 수 있도록 robots.txt 파일을 업데이트해야 합니다.

유효한

  • 제출 및 색인 생성: 색인 을 위해 sitemap.xml을 통해 Google에 제출하고 색인이 생성된 URL입니다.
  • 인덱싱됨, 사이트맵에 제출되지 않음: Google에서 URL을 발견하고 인덱싱했지만 사이트맵에 포함되지 않았습니다. 사이트맵을 업데이트하고 Google에서 크롤링하고 색인을 생성할 모든 페이지를 포함하는 것이 좋습니다.

제외된

  • 'noindex' 태그에 의해 제외됨: Google이 페이지의 색인을 생성하려고 할 때 'noindex' 메타 로봇 ​​태그 또는 HTTP 헤더를 찾았습니다.
  • 페이지 제거 도구에 의해 차단됨: 누군가 Google Search Console의 URL 제거 요청을 사용하여 이 페이지의 색인을 생성하지 않도록 Google에 요청을 제출했습니다. 이 페이지의 색인을 생성하려면 Google의 Search Console에 로그인하여 제거된 페이지 목록에서 제거하십시오.
  • robots.txt에 의해 차단됨: robots.txt 파일에는 크롤링되는 URL을 제외하는 줄이 있습니다. robots.txt 테스터를 사용하여 이 작업을 수행하는 라인을 확인할 수 있습니다.
  • 승인되지 않은 요청으로 인해 차단됨(401): 오류 범주와 동일하게 여기 페이지가 401 HTTP 헤더와 함께 반환됩니다.
  • 크롤링 이상: 이것은 일종의 포괄 범주이며 여기의 URL은 4xx 또는 5xx 수준 응답 코드로 응답합니다. 이러한 응답 코드는 페이지의 인덱싱을 방지합니다.
  • 크롤링됨 - 현재 색인이 생성되지 않음: Google은 URL이 색인이 생성되지 않은 이유를 제공하지 않습니다. 색인 생성을 위해 URL을 다시 제출할 것을 제안합니다. 그러나 페이지에 씬 또는 중복 콘텐츠가 있는지, 다른 페이지로 정규화되었는지, noindex 지시문이 있는지, 측정항목에 나쁜 사용자 경험이 있는지, 페이지 로드 시간이 긴지 등을 확인하는 것이 중요합니다. Google이 페이지의 색인을 생성하고 싶지 않습니다.
  • 발견됨 – 현재 색인이 생성되지 않음: 페이지를 찾았지만 Google에서 색인에 포함하지 않았습니다. 위에서 언급한 것처럼 프로세스 속도를 높이기 위해 색인 생성을 위해 URL을 제출할 수 있습니다. Google은 이러한 일이 발생하는 일반적인 이유는 사이트에 과부하가 걸리고 Google이 크롤링을 다시 예약했기 때문이라고 밝혔습니다.
  • 적절한 표준 태그가 있는 대체 페이지: 다른 URL을 가리키는 표준 태그가 있기 때문에 Google에서 이 페이지의 색인을 생성하지 않았습니다. Google은 표준 규칙을 따르고 표준 URL의 색인을 올바르게 생성했습니다. 이 페이지의 색인을 생성하지 않으려는 경우 여기에서 수정할 사항이 없습니다.
  • 사용자가 선택한 표준 없이 복제: Google은 이 카테고리에 나열된 페이지에 대해 중복을 찾았으며 표준 태그를 사용하지 않는 페이지를 찾았습니다. Google은 표준 태그로 다른 버전을 선택했습니다. 이러한 페이지를 검토하고 올바른 URL을 가리키는 표준 태그를 추가해야 합니다.
  • 중복, Google이 사용자와 다른 표준을 선택했습니다. 이 카테고리의 URL은 명시적인 크롤링 요청 없이 Google에서 발견했습니다. Google은 외부 링크를 통해 이를 찾았고 더 나은 표준을 만드는 다른 페이지가 있다고 결정했습니다. 이러한 이유로 Google은 이 페이지의 색인을 생성하지 않았습니다. Google은 이러한 URL을 표준의 중복으로 표시할 것을 권장합니다.
  • 찾을 수 없음(404): Googlebot이 이 페이지에 액세스하려고 하면 404 오류로 응답합니다. Google은 이러한 URL이 제출되지 않았으며 이러한 URL을 가리키는 외부 링크를 통해 발견되었다고 밝혔습니다. 이러한 URL을 유사한 페이지로 리디렉션하여 링크 자산을 활용하고 사용자가 관련 페이지를 방문하도록 하는 것이 좋습니다.
  • 법적 신고로 인해 삭제된 페이지: 저작권 위반과 같은 법적 문제로 인해 누군가 이 페이지에 대해 신고했습니다. 여기에서 제출된 법적 불만 사항에 대해 이의를 제기할 수 있습니다.
  • 리디렉션이 있는 페이지: 이 URL은 리디렉션 중이므로 제외됩니다.
  • Soft 404: 위에서 설명한 대로 이러한 URL은 404로 응답해야 하므로 제외됩니다. 페이지를 확인하고 404 HTTP 헤더로 응답할 '찾을 수 없음' 메시지가 있는지 확인하십시오.
  • 중복 제출된 URL이 표준으로 선택되지 않음: "Google이 사용자와 다른 표준을 선택함"과 유사하지만 이 카테고리의 URL은 귀하가 제출한 것입니다. 사이트맵을 확인하고 포함된 중복 페이지가 없는지 확인하는 것이 좋습니다.

사이트 개선을 위한 데이터 및 작업 항목 사용 방법

대행사에서 일하면서 다양한 사이트와 해당 사이트의 보도 보고서에 액세스할 수 있습니다. 저는 Google이 다양한 범주에서 보고하는 오류를 분석하는 데 시간을 보냈습니다.
정규화 및 중복 콘텐츠 문제를 찾는 데 도움이 되었지만 @jroakes에서 보고한 것과 같은 불일치가 발생하는 경우가 있습니다.

AJ Koh는 새로운 Google Search Console이 출시된 직후 훌륭한 기사를 작성하여 데이터의 진정한 가치는 사이트의 각 콘텐츠 유형에 대한 건강 그림을 그리는 데 데이터를 사용하는 것이라고 설명합니다.

위 이미지에서 볼 수 있듯이 커버리지 보고서의 다양한 카테고리의 URL은 블로그, 서비스 페이지 등과 같은 페이지 템플릿별로 분류되었습니다. 다양한 유형의 URL에 대해 여러 사이트맵을 사용하면 Google에서 허용하므로 이 작업에 도움이 될 수 있습니다. 사이트맵별로 적용 범위 정보를 필터링합니다. 그런 다음 그는 인덱싱되고 제출된 페이지의 %, 유효 비율 및 발견된 페이지의 % 정보가 포함된 세 개의 열을 포함했습니다.

이 표는 사이트 상태에 대한 훌륭한 개요를 제공합니다. 이제 다른 섹션을 자세히 알아보려면 보고서를 검토하고 Google에서 표시하는 오류를 다시 확인하는 것이 좋습니다.

다른 카테고리에 있는 모든 URL을 다운로드하고 OnCrawl을 사용하여 HTTP 상태, 표준 태그 등을 확인하고 다음과 같은 스프레드시트를 만들 수 있습니다.

이와 같이 데이터를 구성하면 문제를 추적하고 개선하거나 수정해야 하는 URL에 대한 작업 항목을 추가하는 데 도움이 될 수 있습니다. 또한 올바른 표준 태그 구현이 포함된 매개변수가 있는 URL의 경우 작업 항목이 필요하지 않고 올바른 URL을 확인할 수 있습니다.

14일 무료 평가판 시작

Oncrawl이 시장에서 가장 인정받는 기술 및 데이터 SEO 플랫폼인 이유를 직접 알아보십시오! 신용 카드가 필요하지 않고 문자열도 첨부되지 않습니다. 모든 기능을 갖춘 평가판을 단 14일 동안 사용할 수 있습니다.
평가판 시작

OnCrawl 통합을 통해 ahrefs, Majestic 및 Google Analytics와 같은 다른 소스에서 이 스프레드시트에 더 많은 정보를 추가할 수도 있습니다. 이렇게 하면 Google Search Console의 각 URL에 대한 링크 데이터와 트래픽 및 전환 데이터를 추출할 수 있습니다. 이 모든 데이터는 각 페이지에 대해 수행할 작업에 대해 더 나은 결정을 내리는 데 도움이 될 수 있습니다. 예를 들어 404가 포함된 페이지 목록이 있는 경우 이를 백링크와 연결하여 링크하는 도메인에서 링크 자산이 손실되는지 확인할 수 있습니다. 사이트의 깨진 페이지. 또는 인덱싱된 페이지와 해당 페이지에서 발생하는 유기적 트래픽의 양을 확인할 수 있습니다. 유기적 트래픽이 발생하지 않는 인덱싱된 페이지를 식별하고 해당 페이지로 더 많은 트래픽을 유도하는 데 도움이 되도록 해당 페이지를 최적화(콘텐츠 및 사용성 개선)할 수 있습니다.

이 추가 데이터를 사용하여 다른 스프레드시트에 요약 표를 만들 수 있습니다. =COUNTIF(범위, 기준) 공식을 사용하여 각 페이지 유형의 URL을 계산할 수 있습니다(이 표는 AJ Kohn이 위에서 제안한 표를 보완할 수 있습니다). 다른 수식을 사용하여 각 URL에 대해 추출한 백링크, 방문 또는 전환을 추가하고 다음 수식 =SUMIF(범위, 기준, [sum_range])를 사용하여 요약 표에 표시할 수도 있습니다. 다음과 같은 결과를 얻을 수 있습니다.

데이터에 대한 요약 보기를 제공하고 먼저 수정에 집중해야 하는 섹션을 식별하는 데 도움이 될 수 있는 요약 표로 작업하는 것을 정말 좋아합니다.

마지막 생각들

문제를 수정하고 이 보고서의 데이터를 볼 때 고려해야 할 사항은 다음과 같습니다. 내 사이트가 크롤링에 최적화되어 있습니까? 색인된 유효한 페이지가 증가하거나 감소합니까? 오류가 있는 페이지가 증가하거나 감소합니까? Google이 내 사용자에게 더 많은 가치를 제공할 URL에 시간을 할애하도록 허용하고 있습니까? 아니면 가치 없는 페이지를 많이 찾고 있습니까? 이러한 질문에 대한 답변을 통해 Googlebot이 가치 없는 페이지 대신 사용자에게 가치를 제공할 수 있는 페이지에 크롤링 예산을 사용할 수 있도록 사이트를 개선할 수 있습니다. robots.txt를 사용하여 크롤링 효율성을 개선하고, 가능한 경우 가치 없는 URL을 제거하거나, 표준 또는 NOINDEX 태그를 사용하여 콘텐츠 중복을 방지할 수 있습니다.

Google은 Google 검색 콘솔의 다양한 보고서에 기능을 계속 추가하고 데이터 정확도를 업데이트하므로 Google Search Console의 다른 보고서뿐만 아니라 범위 보고서의 각 카테고리에서 더 많은 데이터를 계속 볼 수 있기를 바랍니다.

무료 평가판 시작