로그 파일 분석 사례 연구

게시 됨: 2020-04-07

로그 파일 분석은 OnCrawl을 사용하면 시간이 더 적게 걸리지만 그럼에도 불구하고 시간이 걸립니다. SEO에는 최적화 및 감사가 포함된 긴 목록이 있으며 로그 파일이 목록에서 가장 무거운 항목 중 하나이기 때문에 목록의 맨 아래로 기어 들어가는 불쾌한 습관이 있습니다.

미루는 것은 인간의 본성이지만, 무엇이 당신을 기다리고 있는지 알면 시작하기가 더 쉽습니다.

97층의 최근 로그 파일 분석에 따르면 분석이 완료된 후 단 30일 만에 고객의 유기적 수익이 25% 증가했습니다 .

로그 파일 분석을 실행하기 전에 알아야 할 사항

로그 파일을 처음 사용하는 경우 이 문서에서 기본 사항을 완전히 다루지는 않습니다. 대신 이 기사를 읽으십시오.

간단히 말해서, 로그 파일 분석은 본질적으로 귀하의 사이트에 보관된 웹 서버 로그의 검토라는 점을 기억하십시오. 로그는 사이트와 상호작용하는 봇(예: Google)의 인스턴스를 기록합니다.

많은 사람들이 "로그 파일 분석을 언제 실행해야 하나요?"라고 묻습니다. 정답은 단순히 "예"입니다.

그 이유는 다음과 같습니다. 크롤링 가능성은 모든 기술적 SEO 롤아웃의 기초입니다. 크롤링 기능이 없으면 사이트의 색인이 생성되지 않습니다. 인덱싱되지 않으면 순위가 매겨지지 않습니다. 그리고 순위 없이… 당신은 요점을 얻습니다.

사이트 크롤링 가능성을 향상시키는 몇 가지 방법이 있지만 아마도 로그 파일 분석보다 더 효과적이고 포괄적인 방법은 없을 것입니다. 이것이 모든 기술적 SEO 롤아웃의 중추 역할을 해야 하는 이유입니다. 따라서 기술 롤아웃의 시작 단계에 있든, 성숙한 캠페인에 몇 년이 걸렸든(최근에 로그 파일을 검토하지 않은 경우), 이제 로그 파일을 분석할 때입니다.

그리고 로그 파일 분석 실행에 대해 아직 통화 중인 사람을 위해 이 조언을 추가하겠습니다. 책에 있는 모든 작업을 완료했다고 생각하지만 여전히 1페이지에 있는 완고한 키워드를 얻기 위해 고군분투하는 모든 SEO에게 해당 로그 파일 분석을 실행하십시오.

온크롤 로그 분석기

봇 모니터링 및 크롤링 예산 최적화를 위한 로그 파일 분석. 사이트 상태 문제를 감지하고 크롤링 빈도를 개선합니다.
더 알아보기

실행 중인 로그 파일 분석: 결과 관찰

로그 파일을 검토하면 다음을 포함한 수많은 결과가 생성될 수 있습니다.

  • 봇 크롤링 볼륨
  • 크롤링 예산 낭비
  • 302 리디렉션
  • 응답 코드 오류
  • 크롤링 우선순위
  • 중복 URL 크롤링
  • 마지막 크롤링 날짜

그러나 이러한 발견 자체는 도움이 되지 않습니다. 로그 파일 분석을 최대한 활용할 수 있는 솔루션을 만들기 위해서는 과거의 문제를 볼 수 있는 SEO가 필요합니다.

97층에는 고가의 독특한 제품을 판매하는 전자상거래 클라이언트가 있습니다. 거의 모든 제품은 고유하며 제품이 판매될 때 고객이 사이트에서 페이지를 제거했습니다. 이것은 모든 종류의 페이지 수준 성장을 어렵게 만들었습니다. 또한 Googlebot과 크롤링 가능성에 많은 혼란을 일으켰습니다.

말할 필요도 없이 그들은 우리가 참여하기 전에 Google과 힘든 싸움을 하고 있었습니다. 클라이언트에 온보딩할 때 즉시 로그 파일 분석을 실행했습니다.

우리의 로그 파일 분석은 (일반적으로 하는 것처럼) 많은 결과를 생성했지만 다음 세 가지가 두드러졌습니다.

  1. 다수의 중복 하위 폴더가 Google에서 자주 크롤링되었습니다.
  2. 404 오류를 반환한 많은 페이지가 여전히 Googlebot에 의해 크롤링되고 있었습니다. 사이트에서 제거되었기 때문에 초기 사이트 크롤링에서 찾을 수 없습니다.
  3. 중요하지 않은 하위 폴더가 주요 방문 페이지보다 더 많이 크롤링되었습니다.

앞서 언급했듯이 로그 파일 분석은 분석이 끝난 후에도 멈추지 않습니다. 작업 항목과 구현 및 실행을 통해 계속됩니다. 우리 고객의 상황에서 그들은 단순히 바늘을 움직이지 않는 페이지에 Google의 크롤링 예산을 낭비하고 있었습니다.

우리의 새 페이지는 잘 최적화되었지만 의미 있는 순위를 얻는 데 필요한 견인력을 얻지 못했습니다.

로그 파일 분석에서 이 세 가지 문제를 발견했을 때 순위가 더 높지 않은 이유가 이해가 되었습니다. Google은 크롤링 예산을 사용하여 최적화되지 않았거나 전혀 최적화되지 않은 페이지를 확인했습니다.

성공을 확인하는 데 필요한 트래픽을 가져올 순위를 얻으려면 먼저 로그 파일 분석에서 항목을 해결해야 했습니다.

이 경우 크롤링 예산이 중요하지 않은 페이지에서 낭비되고 있음이 분명했습니다. 이는 로그 파일 분석에서 흔히 볼 수 있는 결과입니다.

로그 파일 분석 솔루션

중복 하위 폴더의 크롤링 낭비 해결

우리 클라이언트는 전자 상거래 사이트였기 때문에 사이트 전체에 복제된 수많은 하위 폴더를 보았습니다. 이 하위 폴더는 대부분 너무 오래되어서 보유하고 있는 정보가 매우 오래되었고 유기적으로 발견하는 것이 거의 불가능한 카테고리 페이지였습니다.

그러나 Googlebot은 단지 그것들을 발견한 것이 아닙니다. 다시 크롤링하기 위해 자주 다시 돌아와서 크롤링 예산을 소모했습니다.

우리의 솔루션은 이러한 중복 하위 폴더를 삭제하고 보다 적절하고 관련성이 높은 하위 폴더로 리디렉션하는 것이었습니다. 우리는 일부 더 큰 키워드의 순위를 정하는 데 도움이 되도록 완전히 수정된 카테고리 구조를 시작했습니다. 이 중복된 하위 페이지를 어디로 리디렉션했는지 짐작할 수 있습니까?

이 오래되고 잊혀진 페이지를 더 새롭고 최적화된 페이지로 리디렉션함으로써 SERP에서 한 발 더 나아갔습니다.

[사례 연구] 로그 파일 분석을 통한 유기적 검색 트래픽 최적화

National Business Research Institute는 웹사이트를 새롭게 디자인했고 자연 검색 트래픽이 감소했습니다. 이 사례 연구는 NBRI가 재설계 후 SEO 성능을 최적화하기 위해 OnCrawl을 사용하는 방법에 중점을 둡니다.
사례 연구 읽기

중요하지 않은 하위 폴더의 크롤링 낭비 수정

이 점은 중복 하위 폴더에 관한 마지막 점과 유사합니다. 중복 하위 폴더를 잊어버리고 현재 버전의 복제본을 잃어버렸습니다. 중복된 하위 폴더와 중요하지 않은 하위 폴더의 차이점은 지금은 여전히 ​​관련성이 있지만 검색을 위한 초석 페이지가 아닌 하위 폴더에 대해 이야기하고 있다는 것입니다.

여기서 해결책은 간단하지 않았습니다. 상황의 근본 원인을 모르기 때문에 다음을 포함한 모든 것이 약간 포함된 광범위한 솔루션을 처방해야 했습니다.

  • 낮은 우선 순위(그러나 많이 크롤링된) 페이지에서 높은 우선 순위의 SEO 최적화 페이지로 전략적 내부 링크 삽입
  • .xml 파일의 상위에 더 중요한 페이지를 포함하도록 사이트맵 재정렬
  • 우선 순위가 더 높은 페이지에서 rel="canonical" 및 메타 로봇 ​​정보 수정
  • robots.txt 파일을 다시 방문하여 차단되어서는 안 되는 것이 없는지 확인합니다(대형 전자상거래 사이트에서는 특히 이를 확인해야 함).
  • 불필요한 페이지 삭제 및 제거

죽은 페이지 지우기

우리는 사이트를 크롤링하고 내부 사이트 크롤링이 식별할 수 있는 모든 404 오류를 발견한 사이트 감사를 이미 수행했습니다.

그러나 이것이 로그 파일 분석의 장점입니다. 내부 크롤링에서 제한된 데이터를 가져오지 않습니다. 당신은 구글이 보고 있는 것을 정확히 보고 있습니다. 본질적으로 외부인의 관점에서 본 사이트 감사입니다. 가장 중요한 외부인인 Google입니다.

여기서 수정은 간단하여 이전 요점에서 보낸 모든 시간을 만회하는 데 도움이 되었습니다. 우리는 301 이러한 오래된 고아 페이지를 사이트의 최적화된 페이지로 리디렉션했습니다. 완료.

로그 파일 분석 결과

이 클라이언트에 대한 로그 파일 분석의 가장 좋은 부분은 빠른 결과였습니다.

앞서 언급했듯이 위의 작업 항목을 구현한 후 단 30일 만에 고객에게 유기적 수익이 25% 증가했습니다.

이 기간 동안 자연 트래픽의 전환율도 약간 증가했습니다. 이 상승세는 비수기 동안 발생했기 때문에 여기에는 계절성이 없습니다. 그리고 전환율이 증가했다는 사실은 트래픽이 더 많이 유입되었을 뿐만 아니라 자격을 갖춘 트래픽이라는 것을 의미합니다.

고객 사이트의 크롤링 예산을 Google과 효과적으로 재분배한 후 더 많은 의도 기반 페이지에 주의를 집중하여 의도가 더 높은 키워드에서 더 나은 순위를 얻었기 때문에 트래픽이 더 적합했을 가능성이 큽니다. 즉, 사용자의 여정을 돕기 위해 유입경로에서 사용자를 올바른 페이지로 유도했습니다.

엉뚱하게 들릴지 모르지만 97층에서 우리의 신조는 인터넷을 더 나은 곳으로 만드는 것입니다. 로그 파일 분석은 Google의 부정확한 크롤링의 단점을 보완하기 때문에 이 작업을 수행합니다. 이렇게 하면 SERP의 맨 위에 고품질 페이지가 표시되어 모든 사람에게 훨씬 더 나은 인터넷 검색 경험을 제공합니다.

다음에 크롤링 문제에 직면했을 때 로그 파일 분석 실행, 솔루션 제시, 검토에 대해 두 번 생각하지 않기를 바랍니다. 사이트에서 더 많은 트래픽과 전환이 발생하는 것을 확인할 수 있습니다.

무료 평가판 시작