전체 웹사이트 건강에 대한 빠르고 더러운 11단계 기술 SEO 감사

게시 됨: 2020-02-27

기술 SEO는 모든 프로젝트의 시작점이기 때문에 중요합니다. SEO 전문가의 관점에서 모든 웹사이트는 새로운 프로젝트입니다. 웹사이트는 좋은 결과를 얻고 순위와 같은 SEO에서 가장 중요한 KPI에 도달하기 위해 견고한 기초가 있어야 합니다.

새로운 프로젝트를 시작할 때마다 가장 먼저 하는 일은 기술적인 SEO 감사입니다. 대부분의 경우 기술 문제를 수정하면 웹 사이트가 다시 크롤링되는 즉시 놀라운 결과를 얻을 수 있습니다.

사람들이 콘텐츠와 더 많은 콘텐츠에 대해 이야기하지만 기술적 SEO에 대해서는 한마디도 하지 않는 것이 저에게는 재미있습니다. 한 가지 확실한 것은 웹사이트 상태와 기술 SEO가 2020년에 결정적인 두 가지 중요한 요소라는 것입니다. 콘텐츠가 중요하지 않다고 말하는 것은 아닙니다. 그렇긴 하지만 웹사이트의 기술적인 문제를 수정하지 않고는 콘텐츠가 결과를 가져올 수 있다고 생각하지 않습니다.

중요한 페이지가 robots.txt 파일의 지시문에 의해 차단되거나 가장 중요한 카테고리 또는 서비스 페이지가 noindex, nofollow와 같은 메타 로봇에 의해 깨지거나 차단되는 경우를 보았습니다. 이러한 문제를 해결하여 우선 순위를 지정하지 않고 어떻게 성공할 수 있습니까?

수정해야 할 웹 개발 전문가에게 보고하기 위해 기술 문제를 식별하는 방법을 모르는 SEO의 수를 보면 놀랄 수 있습니다. 기업 현장에서 일하면서 팀에서 사용할 Tech SEO 감사 체크리스트 시트를 만든 것이 기억납니다. 그 당시 나는 이와 같은 빠른 수정 시트를 가까이에 두는 것이 팀에 엄청난 도움이 되고 클라이언트를 위한 빠른 부스트를 생성할 수 있다는 것을 깨달았습니다. 그렇기 때문에 기술적 SEO 진단 및 권장 사항에 도움이 될 수 있는 도구/소프트웨어에 투자하는 것이 가장 중요하다고 생각합니다.

큰 차이를 만들 빠른 기술 SEO 감사를 수행하는 방법에 대한 실습 프로세스를 시작하겠습니다. 이것은 프로가 아니더라도 1시간 정도면 할 수 있는 빠른 운동입니다. 저에게 OnCrawl과 같은 Tech SEO 도구를 사용하여 모든 수동 작업을 수행할 필요 없이 5분 만에 모든 작업을 빠르게 진행하면 제 삶이 쉬워집니다.

기술 SEO 감사를 수행할 때 확인해야 할 가장 중요한 사항을 살펴보겠습니다. 페이지상의 문제에 대해 확인할 수 있는 항목이 더 있지만 인덱싱 문제와 크롤링 예산 낭비를 유발하는 항목에만 초점을 맞추고 싶습니다. 우선 순위를 지정하면 Googlebot이 가장 중요한 페이지를 크롤링할 수 있습니다.

  • 인덱싱
  • Robots.txt 파일
  • 메타 로봇 ​​태그
  • 4xx 오류
  • 사이트맵
  • HTTP/HTTPS(웹사이트 보안, 혼합 콘텐츠 및 중복 콘텐츠 문제)
  • 쪽수 매기기
  • 404페이지
  • 사이트 깊이 및 구조
  • 긴 리디렉션 체인
  • 표준 태그 구현

1) 인덱싱

이것이 가장 먼저 확인해야 할 사항입니다. 여러 번 인덱싱은 플러그인 구성이나 사소한 실수에 의해 영향을 받을 수 있지만 오늘날 61억 6천만 개 이상의 웹 페이지가 인덱싱되어 있으므로 검색 가능성에 미치는 영향은 엄청날 수 있습니다. 모든 검색 엔진이 노력하고 있으며 심지어 Google도 사용자 경험을 위해 가장 관련성 높은 페이지의 우선 순위를 정해야 한다는 점을 이해해야 합니다. Googlebot을 보다 쉽게 ​​만드는 것을 고려하지 않는다면 경쟁업체가 이를 수행하고 건강한 웹사이트와 함께 제공되는 훨씬 더 많은 신뢰를 얻을 것입니다.

인덱싱 문제가 있는 경우 웹사이트 상태 문제는 유기적 트래픽 손실에 반영됩니다. 인덱싱 프로세스는 검색 엔진이 웹 페이지를 크롤링하고 나중에 SERP에서 제공하는 정보를 구성하는 것을 의미합니다. 결과는 사용자 의도의 관련성에 따라 다릅니다. 웹 페이지가 크롤링할 수 없거나 크롤링에 문제가 있는 경우 동일한 틈새 시장에 있는 다른 페이지가 유리할 것입니다.

예를 들어 검색 연산자 사용:

사이트: www.abc.com

쿼리는 Google에서 인덱싱한 183페이지를 반환합니다. 이것은 Google이 색인을 생성한 페이지 수를 대략적으로 추정한 것입니다. 정확한 숫자는 Google Search Console에서 확인할 수 있습니다.

또한 OnCrawl과 같은 웹 크롤러를 사용하여 Google이 액세스할 수 있는 모든 페이지를 나열해야 합니다. 아래에서 볼 수 있는 것처럼 다른 숫자가 표시됩니다.

이 웹사이트에는 인덱싱된 페이지보다 크롤링 가능한 페이지가 거의 두 배나 많습니다.

이것은 중복 콘텐츠 문제 또는 HTTP와 HTTPS 문제 간의 웹 사이트 보안 버전 문제를 나타낼 수 있습니다. 이 기사의 뒷부분에서 이에 대해 이야기하겠습니다.

이 경우 웹 사이트는 HTTP에서 HTTPS로 마이그레이션되었습니다. OnCrawl에서 HTTP 페이지가 리디렉션되었음을 확인할 수 있습니다. HTTP 및 HTTPS 버전 모두 Googlebot에 계속 액세스할 수 있으며 소유자가 순위를 지정하려는 가장 중요한 페이지의 우선 순위를 지정하는 대신 모든 중복 페이지를 크롤링하여 크롤링 예산을 낭비할 수 있습니다.

방치된 웹사이트나 전자상거래 사이트와 같은 대규모 웹사이트에서 흔히 발생하는 또 다른 문제는 혼합 콘텐츠 문제입니다. 간단히 말해서 보안 페이지에 보안되지 않은 버전에서 로드된 미디어 파일(가장 자주: 이미지)과 같은 리소스가 있을 때 문제가 발생합니다.

해결 방법:

웹 개발자에게 모든 HTTP 페이지를 HTTPS 버전으로 강제하고 301 상태 코드를 사용하여 HTTP 주소를 HTTPS로 한 번 리디렉션하도록 요청할 수 있습니다.

혼합 콘텐츠 문제의 경우 페이지 소스를 수동으로 확인하고 "src=http://example.com/media/images"로 로드된 리소스를 검색할 수 있습니다. 이는 특히 대규모 웹사이트에서 수행하는 것이 거의 불가능합니다. 이것이 우리가 기술적 SEO 도구를 사용해야 하는 이유입니다.

2) Robots.txt 파일:

robots.txt 파일은 크롤링 에이전트에게 크롤링하지 말아야 할 페이지를 알려줍니다. Robots.txt 사양 가이드에 따르면 파일 형식은 최대 크기가 500KB인 일반 텍스트여야 합니다.

robots.txt.file에 사이트맵을 추가하는 것이 좋습니다. 모든 사람이 이렇게 하는 것은 아니지만 좋은 습관이라고 생각합니다. robots.txt 파일은 호스트된 서버의 public_html에 위치해야 하며 루트 도메인 뒤에 있어야 합니다.

robots.txt 파일의 지시문을 사용하여 검색 엔진이 불필요한 페이지나 관리 페이지, 템플릿 또는 장바구니(/cart, /checkout, /login, 블로그에서 사용되는 /tag와 같은 폴더)와 같은 민감한 정보가 포함된 페이지를 크롤링하지 않도록 할 수 있습니다. , robots.txt 파일에 이러한 페이지를 추가합니다.

조언 : 미디어 파일 폴더를 차단하지 않도록 하십시오. 이렇게 하면 이미지, 비디오 또는 기타 자체 호스팅 미디어가 인덱싱되지 않기 때문입니다. 미디어는 페이지 관련성뿐만 아니라 이미지 또는 비디오의 유기적 순위 및 트래픽에 매우 중요할 수 있습니다.

3) 메타로봇 태그

이것은 해당 페이지 내의 모든 링크와 함께 페이지를 크롤링하고 색인을 생성할지 여부를 검색 엔진에 지시하는 HTML 코드입니다. HTML 태그는 웹페이지의 헤드로 이동합니다. 로봇에는 4가지 일반적인 HTML 태그가 있습니다.

  • 팔로우 없음
  • 따르다
  • 색인
  • 색인 없음

메타 로봇 ​​태그가 없으면 검색 엔진이 기본적으로 콘텐츠를 따라가며 색인을 생성합니다.

필요에 가장 적합한 조합을 사용할 수 있습니다. 예를 들어, OnCrawl을 사용하여 이 웹사이트의 "저자 페이지"에 메타 로봇이 없음을 발견했습니다. 이것은 기본적으로 방향이 ("팔로, 색인")임을 의미합니다.

이것은 ("noindex, nofollow")여야 합니다.

왜요?

경우마다 다르지만 이 웹사이트는 소규모 개인 블로그입니다. 블로그에 게시하는 작성자는 한 명뿐이며 도메인은 작성자의 이름입니다. 이 경우 "저자" 페이지는 블로깅 플랫폼에서 생성하더라도 추가 정보를 제공하지 않습니다.

또 다른 시나리오는 블로그의 카테고리가 중요한 웹사이트일 수 있습니다. 소유자가 자신의 블로그에서 카테고리 순위를 지정하려는 경우 메타 로봇은 카테고리 페이지에서 ("팔로잉, 색인") 또는 기본값이어야 합니다.

다른 시나리오에서는 주요 SEO 전문가가 기사를 작성하고 커뮤니티가 뒤따르는 크고 잘 알려진 웹사이트의 경우 Google의 작성자 이름이 브랜드 역할을 합니다. 이 경우에는 일부 작성자 이름을 색인화할 수 있습니다.

보시다시피 메타 로봇 은 다양한 방식으로 사용될 수 있습니다.

해결 방법:
웹 개발자에게 필요에 따라 메타 로봇 ​​태그를 변경해 달라고 요청하세요. 위의 소규모 웹사이트의 경우 각 페이지로 이동하여 수동으로 변경하여 직접 수행할 수 있습니다. WordPress를 사용하는 경우 RankMath 또는 Yoast 설정에서 변경할 수 있습니다.

4) 4xx 오류:

이는 클라이언트 측 오류이며 401, 403 및 404일 수 있습니다.

  • 404 페이지를 찾을 수 없음:

이 오류는 색인이 생성된 URL 주소에서 페이지를 사용할 수 없을 때 발생합니다. 이동 또는 삭제되었을 수 있으며 웹 서버 기능 301을 사용하여 이전 주소가 제대로 리디렉션되지 않았습니다. 404 오류는 사용자에게 좋지 않은 경험이며 해결해야 하는 기술적 SEO 문제를 나타냅니다. 404를 자주 확인하고 수정하고, 예산을 낭비하는 크롤링 에이전트에 대해 계속해서 시도하도록 두지 않는 것이 좋습니다.

해결 방법:

404를 반환하는 주소를 찾고 콘텐츠가 여전히 존재하는 경우 301 리디렉션을 사용하여 수정해야 합니다. 또는 이미지인 경우 동일한 파일 이름을 유지하는 새 이미지로 대체할 수 있습니다.

  • 401 권한 없음

권한 문제입니다. 401 오류는 일반적으로 사용자 이름 및 비밀번호와 같은 인증이 필요할 때 발생합니다.

해결 방법:

다음은 두 가지 옵션입니다. 첫 번째 옵션은 robots.txt를 사용하여 검색 엔진에서 페이지를 차단하는 것입니다. 두 번째 옵션은 인증 요구 사항을 제거하는 것입니다.

  • 403 금지

이 오류는 401 오류와 유사합니다. 403 오류는 페이지에 일반 사용자가 액세스할 수 없는 링크가 있기 때문에 발생합니다.

해결 방법:
페이지에 대한 액세스를 허용하도록 서버의 요구 사항을 변경합니다(실수인 경우에만). 이 페이지에 액세스할 수 없도록 하려면 페이지에서 모든 내부 및 외부 링크를 제거하십시오.

  • 400 잘못된 요청

이것은 브라우저가 웹 서버와 통신할 수 없을 때 발생합니다. 이 오류는 일반적으로 잘못된 URL 구문에서 발생합니다.

해결 방법:

이 URL에 대한 링크를 찾아 구문을 수정하십시오. 이 문제를 해결할 수 없으면 웹 개발자에게 연락하여 문제를 해결해야 합니다.

참고: 도구 또는 Google 콘솔에서 400개의 오류를 찾을 수 있습니다.

5) 사이트맵

사이트맵은 웹사이트에 포함된 모든 URL의 목록입니다. 사이트맵이 있으면 크롤러가 콘텐츠를 찾고 이해하는 데 도움이 되므로 검색 가능성이 향상됩니다.
다양한 유형의 사이트맵이 있으며 모든 사이트맵이 양호한 상태인지 확인해야 합니다.

우리가 가져야 할 사이트맵은 다음과 같습니다:

  • HTML 사이트맵: 웹사이트에 표시되며 사용자가 웹사이트에서 페이지를 탐색하고 찾는 데 도움이 됩니다.
  • XML 사이트맵: 이것은 검색 엔진이 귀하의 웹사이트를 크롤링하는 데 도움이 되는 파일입니다(가장 좋은 방법은 robots.txt 파일에 포함되어야 함).
  • 동영상 XML 사이트맵: 위와 동일합니다.
  • 이미지 XML 사이트맵: 역시 위와 동일합니다. 이미지, 동영상 및 콘텐츠에 대해 별도의 사이트맵을 만드는 것이 좋습니다.

큰 웹사이트의 경우 사이트맵에 50,000개 이상의 URL이 포함되어서는 안 되므로 크롤링 가능성을 높이기 위해 여러 사이트맵을 사용하는 것이 좋습니다.

이 웹사이트에는 사이트맵 문제가 있습니다.

해결 방법:

콘텐츠, 이미지, 동영상에 대해 서로 다른 사이트맵을 생성하여 이 문제를 해결합니다. 그런 다음 Google Search Console을 통해 제출하고 웹사이트용 HTML 사이트맵도 만듭니다. 이를 위해 웹 개발자가 필요하지 않습니다. 무료 온라인 도구를 사용하여 사이트맵을 생성할 수 있습니다.

6) HTTP/HTTPS(중복 콘텐츠)

많은 웹사이트에서 HTTP에서 HTTPS로 마이그레이션한 결과 이러한 문제가 발생합니다. 이 경우 웹 사이트는 검색 엔진에 HTTP 및 HTTPS 버전을 표시합니다. 이 일반적인 기술 문제의 결과로 순위가 희석됩니다. 이러한 문제는 또한 중복 콘텐츠 문제를 생성합니다.

해결 방법:

웹 개발자에게 모든 HTTP를 HTTPS로 강제 설정하여 이 문제를 해결해 달라고 요청하세요.

참고 : 소프트 404 오류가 생성되므로 모든 HTTP를 HTTPS 홈 페이지로 리디렉션하지 마십시오. (웹 개발자에게 이것을 말해야 합니다. 그들은 SEO가 아님을 기억하십시오.)

7) 페이지 매김

이것은 페이지 간의 관계를 설정하는 HTML 태그("rel = prev" 및 "rel = next")의 사용이며, 검색 엔진에 서로 다른 페이지에 표시되는 콘텐츠가 식별되거나 단일 페이지와 관련되어야 함을 보여줍니다. 페이지 매김은 UX에 대한 콘텐츠와 기술적인 부분에 대한 페이지의 무게를 3MB 미만으로 유지하는 데 사용됩니다. 무료 도구를 사용하여 페이지 매김을 확인할 수 있습니다.

페이지 매김에는 자체 표준 참조가 있어야 하며 "rel = prev" 및 "rel = next"를 나타내야 합니다. 유일한 중복 정보는 메타 제목과 메타 설명이지만 개발자가 이를 변경하여 작은 알고리즘을 만들 수 있으므로 모든 페이지에 생성된 메타 제목과 메타 설명이 있습니다.

해결 방법:

웹 개발자에게 자체 표준 태그를 사용하여 페이지 매김 HTML 태그를 구현하도록 요청하십시오.

온크롤 SEO 크롤러

Crawler SEO는 자연 및 일상적인 인용에 대한 감사를 더합니다. Augmentez Votre Trafic Organique et les revenus de votre site avec des donnees fiables.
데쿠브리르

8) 사용자 정의 404를 찾을 수 없음 페이지

404 응답은 이전에 논의한 바와 같이 "찾을 수 없음 " 오류로 사용자를 링크가 끊어지거나 존재하지 않는 페이지로 안내합니다. 이것은 사용자를 올바른 위치로 리디렉션할 수 있는 기회입니다. 사용자 정의 404 페이지의 좋은 예가 있습니다. 이것은 필수품입니다.
다음은 훌륭한 404 사용자 정의 페이지의 예입니다.

해결 방법:

맞춤형 404 페이지 만들기: 추가할 놀라운 것을 생각해 보세요. 이 오류를 비즈니스의 기회로 만드십시오.

9) 부지 깊이/구조

페이지 깊이는 루트 도메인에서 페이지가 위치한 클릭 수입니다. 구글의 존 뮬러(John Mueller)는 "홈페이지에 가까울수록 더 많은 가중치를 갖는다"고 말했습니다. 예를 들어 여기 페이지에 도달하려면 다음 탐색이 필요하다고 가정해 보겠습니다.

"양탄자" 페이지는 홈 페이지에서 4번 클릭하면 됩니다. 검색 엔진이 더 깊은 페이지를 크롤링하는 데 어려움을 겪기 때문에 집에서 4클릭 이상 떨어진 곳에 페이지를 두지 않는 것이 좋습니다.
이 그래픽은 페이지 그룹을 깊이별로 보여줍니다. 웹사이트의 구조를 재작업해야 하는지 여부를 이해하는 데 도움이 됩니다.

해결 방법:

가장 중요한 페이지는 사용자가 쉽게 접근할 수 있고 더 나은 웹사이트 구조를 위해 UX용 홈페이지와 가장 가깝습니다. 웹사이트 구조를 만들거나 웹사이트를 재구성할 때 이를 고려하는 것이 매우 중요합니다.

10. 리디렉션 체인

리디렉션 체인은 URL 간에 일련의 리디렉션이 발생하는 경우입니다. 이러한 리디렉션 체인은 루프를 생성할 수도 있습니다. 또한 Googlebot에 문제를 제공하고 크롤링 예산을 낭비합니다.
Chrome 확장 프로그램 리디렉션 경로를 사용하거나 OnCrawl에서 리디렉션 체인을 식별할 수 있습니다.

해결 방법:

WordPress 웹 사이트로 작업하는 경우 이 문제를 해결하는 것은 정말 쉽습니다. 리디렉션으로 이동하여 체인을 찾으십시오. 이러한 변경 사항이 2-3개월 전에 발생한 경우 체인과 관련된 모든 링크를 삭제하고 마지막 리디렉션을 현재 URL로 그대로 두십시오. 웹 개발자는 필요한 경우 .htacces 파일에 필요한 모든 변경을 수행하여 이를 도울 수도 있습니다. SEO 플러그인에서 긴 리디렉션 체인을 확인하고 변경할 수 있습니다.

11) 정경

표준 태그는 URL이 다른 페이지의 사본임을 검색 엔진에 알립니다. 이것은 많은 웹사이트에 존재하는 큰 문제입니다. 표준을 올바른 방식으로 구현하지 않거나 전혀 구현하지 않으면 중복 콘텐츠 문제가 발생합니다.

Canonical은 일반적으로 크기, 색상 등과 같은 다양한 범주에서 제품을 여러 번 찾을 수 있는 전자 상거래 웹 사이트에서 사용됩니다.

OnCrawl을 사용하여 페이지에 표준 태그가 있는지 여부와 태그가 올바르게 구현되었는지 여부를 알 수 있습니다. 그런 다음 문제를 탐색하고 수정할 수 있습니다.

해결 방법:

WordPress에서 작업하는 경우 Yoast SEO를 사용하여 정식 문제를 해결할 수 있습니다. WordPress 대시보드로 이동한 다음 Yoast 설정 – 고급으로 이동합니다.

자체 감사 실행

기술 SEO에 대한 다이빙을 시작하려는 SEO는 SEO 상태를 개선하기 위해 따라야 할 빠른 단계에 대한 가이드가 필요합니다. 2019년 10월 뉴욕에서 열린 글로벌 마케팅 데이에서 Conde Nast의 Audience Grow 부사장이자 NewzDash의 설립자인 John Shehata와 기술 SEO에 대해 이야기했습니다.
그가 나에게 한 말은 다음과 같습니다.

“SEO 업계의 많은 사람들은 기술이 아닙니다. 이제 모든 SEO가 코딩 방법을 이해하는 것은 아니며 사람들에게 이렇게 하도록 요청하는 것은 어렵습니다. 일부 회사는 개발자를 고용하고 SEO가 되도록 훈련하여 기술적 SEO 격차를 해소합니다.”

제 생각에는 전체 코드 지식이 없는 SEO도 감사를 실행하고, 핵심 요소를 식별하고, 보고하고, 웹 개발자에게 구현을 요청하고, 마지막으로 변경 사항을 테스트하는 방법을 알고 기술 SEO에서 훌륭하게 수행할 수 있습니다.

시작할 준비가 되셨습니까? 이러한 주요 문제에 대한 체크리스트를 다운로드하십시오.


무료 평가판 시작