OnCrawl의 Splunk 통합으로 SEO 로그 분석을 개선하는 5가지 방법
게시 됨: 2019-01-03OnCrawl은 최근 Splunk 사용자를 위한 로그 모니터링을 용이하게 하는 Splunk 통합을 출시했습니다. 기업이 Splunk 통합을 두 가지 주요 목적, 즉 프로세스 자동화 및 강화된 보안 제어에 사용하는 것으로 나타났습니다. 그러나 도구의 장점은 여기서 그치지 않습니다. 다음은 OnCrawl Splunk 통합을 사용하여 기술 SEO를 개선할 수 있는 5가지 방법입니다.
SEO 로그 분석: 기본 사항
SEO 로그 분석이란 무엇입니까?
귀하의 로그 파일은 웹사이트 서버 자체에 의해 기록된 웹사이트의 모든 활동을 나타냅니다. 이것은 귀하의 웹사이트에서 일어나는 일에 관한 가장 완전하고 가장 신뢰할 수 있는 정보 소스입니다 . 여기에는 봇 히트 수 및 빈도, SERP에서 발생하는 SEO 유기적 히트 수 및 빈도, 장치 유형(데스크톱 및 모바일) 또는 URL 유형(페이지 및 리소스)별 분석, 정확한 페이지 크기 및 실제 HTTP 상태가 포함됩니다. 코드.
SEO 로그 분석이 제공하는 많은 이점 중 일부:
- Google에서 사이트를 처리하는 방식의 수정을 나타내는 크롤링 동작의 최대치 또는 변경 사항 발견
- 평균적으로 새 페이지의 색인이 생성되고 첫 번째 자연 방문자를 받는 데 걸리는 시간 파악
- 봇 및 사용자 활동이 페이지 순위에 미치는 영향 모니터링
- 봇 및 사용자 행동이 다른 SEO 요소와 어떻게 관련되는지 이해
스플렁크란?
Splunk는 머신 데이터 집계를 위한 엔터프라이즈 솔루션입니다. 여러 소스의 데이터를 대규모로 인덱싱하고 관리할 수 있으며 사이트 보안 및 보고 목적을 위한 서버 로그 처리 기능이 포함되어 있습니다.
Splunk의 장점:
- 향상된 데이터 상관 관계를 위한 인덱싱 및 검색
- 더 나은 보고를 위한 드릴다운 및 피벗 기능
- 실시간 알림
- 데이터 대시보드
- 높은 확장성
- 유연한 배포 옵션
Splunk에서 로그 모니터링
Splunk 사용자는 OnCrawl 통합을 통해 Splunk에서 관리되는 서버 로그 데이터를 OnCrawl 플랫폼의 SEO 데이터와 연결할 수 있습니다.
온크롤 로그 분석기
OnCrawl + Splunk로 기술 SEO 개선
1. 심층 SEO 분석을 위한 로그 사용
Splunk는 로그 데이터에 대한 경고를 집계, 검색, 모니터링 및 설정하는 기능을 입증합니다. 서버 로그의 콘텐츠를 구문 분석하고 다시 인덱싱합니다. 강력한 검색 및 필터를 사용하여 로그 파일의 데이터에 대한 질문에 대한 답변을 제공합니다. 이 처리 단계는 로그 데이터에 나타난 경향에 대한 통계를 제공합니다.
그러나 이것을 SEO 데이터에 적용하려면 원시 데이터로 시작하는 것이 가장 좋습니다. 이것이 바로 OnCrawl Splunk 통합이 하는 일입니다.
로그 데이터에 대한 별도의 통계를 표시하는 대신 로그의 정보를 OnCrawl 플랫폼의 다른 모든 데이터 소스와 통합할 수 있습니다. 결과적으로 이를 통해 로그 파일에서 SEO 메트릭과 사용자 및 봇 행동에 대한 정보 간의 관계를 조사할 수 있습니다.
페이지 클릭 깊이별 자연 방문 수입니다.
이 교차 데이터 분석에는 SEO에 유용한 축이 포함될 수 있습니다.
- 개별 봇별 크롤링 동작 분석
- 첫 번째 크롤링과 첫 번째 자연 방문 사이의 시간
- 사용자 및 봇에게 제공되는 페이지와 감사 크롤링 중에 제공되는 페이지 간의 비교
- 고아 페이지 발견
- 크롤링 빈도와 순위, 노출수, CTR 간의 상관관계
- 사용자/봇 활동에 대한 내부 연결 전략의 영향
- 페이지 클릭 깊이와 사용자/봇 활동 간의 관계
- 내부 페이지 인기도와 사용자/봇 활동 간의 관계
- SEO 성능별로 그룹화된 페이지 전반의 사용자 및 봇 활동 분석
2. 더 쉽게 설정하기
데이터 보안을 위한 자동화 또는 세부 제어가 필요한지 여부에 관계없이 Splunk 사용자라면
설정이 얼마나 간단한지 알 수 있습니다.
시스템 관리자가 아닌 경우 SEO에 대한 로그 모니터링을 설정하는 것은 복잡한 작업처럼 보일 수 있습니다.
우리의 제안은 단순히 어려운 부분을 건너뛰는 것 입니다. 이제 Splunk에서 직접 모든 것을 설정 하고 생성한 키를 사용하여 OnCrawl과의 연결을 생성할 수 있습니다.
그게 다야 갈 준비가 되었습니다. 이보다 더 쉬울 수는 없습니다.
3. Splunk를 통한 프로세스 자동화 활용
Splunk에서 수집한 로그 데이터를 수동으로 사용하려면 다음과 같은 여러 단계를 거쳐야 합니다.
- 올바른 로그 데이터 선택을 검색하기 위한 필터 생성
- 저장된 검색 만들기
- 검색 실행을 위한 자동화 설정
- CSV로 출력
- SSH에서 Splunk 인스턴스에 연결
- CSV 출력 폴더로 이동
- 파일을 컴퓨터로 전송
- OnCrawl ftp 공간에 연결
- 파일을 OnCrawl로 전송…
로그 데이터의 공백을 피하기 위해 이 프로세스를 정기적으로 반복해야 합니다. 종종 이것은 일상적인 작업이 됩니다.
OnCrawl에 Splunk 통합을 사용하도록 선택 하면 더 이상 정기적으로 작업을 시작할 필요가 없습니다 . 프로세스만 설정하면 됩니다(앞서 언급했듯이 이보다 쉬울 수 없음). 더 이상 매일 스크립트를 실행하거나 일련의 수동 작업에 대해 걱정할 필요가 없습니다. 통합이 알아서 처리합니다.
4. 프로세스 보호
문제가 있을 때 데이터 손실로부터 자신을 보호하십시오. 로그 모니터링은 연속적인 데이터 스트림에 의존 하기 때문에 격차는 잘못된 결론으로 이어질 수 있습니다. 다음과 같은 질문을 해서는 안 됩니다. Google에서 발생한 문제로 인해 오늘 아침 자연 방문이 없는 것 같습니까, 아니면 제가 데이터를 놓치고 있는 것입니까?
OnCrawl Splunk 통합 은 서버가 다운되거나 연결이 끊긴 경우 사용자를 보호하고 시간이 없거나 단순히 데이터 업로드를 잊어버린 경우 인적 오류를 방지합니다. 서버에 연결할 수 없는 경우 데이터에 공백이 발생하지 않습니다. 조금 후에 수집하겠습니다. Splunk에 추가하는 것을 잊은 이전 날짜의 데이터 집합을 찾은 경우 OnCrawl 통합도 자동으로 선택합니다.
5. 데이터 보안 관리
OnCrawl에서는 데이터 보안을 매우 중요하게 생각합니다.
항상 그렇듯이 로그의 민감한 데이터는 개인의 안전한 FTP 공간에 보관되며 다른 곳에서는 사용할 수 없습니다. 예를 들어, 우리가 처리하는 유일한 개인 데이터는 Googlebot 방문의 신뢰성을 검증할 때 IP 주소입니다. 사용 된 IP 주소에 대한 기록은 보관하지 않고 유효성 검사 결과만 보관합니다. 필요한 경우 FTP 공간에서 파일을 제거하여 분석에 사용할 수 있는 중요한 정보를 언제든지 제거할 수 있습니다.
Splunk에 대한 통합은 더욱 발전합니다. 우리는 귀하가 프로세스 전반에 걸쳐 귀하의 데이터에 대한 통제력을 유지 하고 있는지 확인합니다. OnCrawl에서 액세스 권한, 공유할 데이터 및 업데이트 빈도를 정의합니다. Splunk 통합을 통해 OnCrawl과 데이터를 공유할 때 Splunk는 표준 보안 프로토콜을 사용하여 사용자가 설정한 암호와 키로 보호되는 Splunk와 통신합니다.
설정이 Splunk에서 수행되기 때문에 OnCrawl은 사용자가 볼 수 없도록 허용한 항목을 절대 볼 수 없습니다. OnCrawl 과 공유할 정보를 선택합니다 . 뿐만 아니라 설정을 관리하기 때문에 로깅 프로세스나 회사 표준에 변경 사항이 있으면 언제든지 변경할 수 있습니다.