SEO 웹사이트 마이그레이션을 처리하는 방법

게시 됨: 2017-10-13

웹사이트의 수명 주기에서 SEO 웹사이트 마이그레이션 단계는 SEO에 부정적인 영향을 미치지 않기 위해 많은 세부 사항에 주의를 기울여야 하는 중요한 순간입니다.

각 사이트 마이그레이션은 다릅니다. 마이그레이션이 즉각적인 결과를 의미하지는 않지만 SEO를 개선하기에 완벽한 시기입니다. 사이트가 발전할 때 검색 엔진이 항상 같은 타이밍에 있는 것은 아니며 적응하는 데 다소 중요한 시간이 있음을 이해해야 합니다. 그러나 이것은 웹 사이트가 내부 링크 아키텍처, 편집 풍부함 및 강력한 SEO 신호를 검색 엔진에 반환하는 덕분에 기술 품질, HTML5 및 json-ld를 통한 코드 강화, 사일로를 개선하는 데 가장 적절한 시기입니다.

발생하는 변경 사항에 따라 여러 유형의 사이트 마이그레이션이 있으며 일반적으로 다음 요소 중 하나 이상이 포함됩니다.

  • 호스팅 / IP 주소
  • 도메인 이름
  • URL 구조
  • 사이트 아키텍처
  • 콘텐츠
  • 디자인 컨셉

가장 어려운 사이트의 마이그레이션에는 위의 대부분(또는 모두)의 변경이 포함됩니다.

SEO 재설계가 제대로 관리된다면 마이그레이션 전과 후에 하나가 있을 것입니다. 시간을 내어 사이트의 문제점을 이해하고 수정 작업을 수행하십시오. 성능을 개선하고 크롤링 기능을 더 쉽게 만듭니다. 당신은 장기적으로 승자가 될 것입니다.

이 기사에서는 안전한 SEO 웹사이트 마이그레이션을 위한 모범 사례를 제공합니다.

SEO 웹사이트 마이그레이션의 주요 단계, 작업 및 문서

통제된 마이그레이션은 잘 준비된 마이그레이션입니다. 따라서 일련의 구조화 단계를 따르면 효과적입니다. 이러한 단계를 통해 마이그레이션 주기 전체에 걸쳐 신뢰할 수 있는 문서 및 데이터 집합을 축적한 다음 마이그레이션의 좋은(또는 나쁜) 영향을 검증할 수 있습니다.

다음은 목표에 따른 조치 및 마이그레이션 문서를 나열한 표입니다.

목표 행위 서류
웹사이트 사진 – 예비 CrawlAggregate 서버 로그 데이터 크롤링 보고서

기술 파일(robots.txt, 사이트맵, 이전 리디렉션 파일)

크롤링/크롤링되지 않은 URL, 분리된 페이지 및 각 페이지의 크롤링 빈도/일 표

외부 도구에서 데이터 컴파일, 집계 및 저장 – 데이터 읽기Google Analytics, Omniture, AT Internet, Search Console(Bing/Google), SemRush, MyPoseo, Majestic, SEObserver,… 표현식/틈새별 위치, 클릭률 및 노출수 내보내기

분석 데이터 내보내기

백링크 수출, TF/CF, 틈새 시장,

틈새 시장에서 키워드 내보내기

키워드 검색

데이터 크로스오버

개선 영역 식별 – 감사 및 데이터 분석 작업 목록
주제 우선 순위 – 성과/노력 평가 ROI 매트릭스
명세서 – 성과/노력 평가 SEO 친화적인 코드에 대한 부록이 있는 요구 사항 표현
생산 - 개발

– 지식 구현

임계점에 대한 팀 토론

품질 코드

수정 확인 – 기술 레시피

– 코드 validationCode 보증

비교 크롤링 보고서

일일 수정

보고서

D일에 플레이할 테스트의 유효성 검사

살다 – 새 코드 및 파일 배포(사이트맵, robots.txt, 리디렉션)

– 신규 사이트 무결성 테스트

– 새 사이트맵 선언

– Search Console로 엔진 크롤링 강제 실행

프로덕션에서 새 코드 전달

최신 XML 사이트맵 파일 확인

로봇을 검증합니다. txt 최적화

해당하는 경우 파일 리디렉션

프로덕션에서 코드가 예상되고 안정적이어야 합니다.

실시간 모니터링 – 크롤링 위에 크롤링

– 리디렉션된 URL 크롤링

데이터 비교로 돌아가기

KPI 개발 보고서

마이그레이션 전 데이터 컴파일 및 분석

예비 크롤링

사이트의 문제점을 이해하는 것은 사양 준비 및 마이그레이션 모니터링 KPI에 필수적입니다. 사이트에 대해 더 잘 알고 개선할 영역을 감지하기 위해 마이그레이션하기 전에 사이트의 전체 사진을 찍도록 초대합니다.

이렇게 하려면 Google에서 존중하는 것과 동일한 원칙인 로봇을 고려하여 크롤링을 시작하세요. txt, 쿼리 문자열이 있는 링크가 뒤따릅니다. 마이그레이션에 여러 하위 도메인이 포함된 경우 OnCrawl을 사용하여 하위 도메인을 검색하고 크롤링할 수 있습니다.

상트 뒤 사이트

사이트의 아키텍처 및 상태에 대한 정보의 예

로그 데이터를 수집할 가능성이 있는 경우 주저하지 말고 각 URL에 대해 수집하십시오. 크롤링/로그 상호 참조 데이터를 사용하여 페이지 집합의 성공 요인을 식별할 수 있습니다.

단어 수 범위

단어 수에 따른 봇 히트/일 수 보기

경험을 통해 Google의 크롤링은 여러 페이지 요소의 영향을 받는다는 것을 알고 있습니다. Google은 모든 페이지를 동일한 빈도로 탐색하지 않습니다. 해당 페이지의 색인은 새로 고쳐지지 않으므로 다운그레이드되는 경향이 있습니다. 색인에서 더 이상 사용되지 않는 페이지는 더 이상 사용자 요청에 대한 "최선의 답변"이 아닙니다. 크롤링 빈도, 인덱스 업데이트 및 순위 사이에는 강력한 관계가 있습니다.

다음과 같은 경우 페이지가 덜 크롤링됩니다.

  • 아키텍처가 너무 깊습니다.
  • 단일 텍스트가 충분하지 않습니다.
  • 내부 링크(외부 링크)가 충분하지 않습니다.
  • 로드할 만큼 빠르지 않거나 너무 무겁습니다.
  • … 등.

페이지 내 요소가 Google 크롤링에 미치는 영향에 대해 자세히 알아보려면 "크롤링 일정"과 관련된 Google 특허에 대해 자세히 알아볼 수 있는 "Google 중요 페이지" 기사를 참조하십시오.

예비 크롤링을 통해 사이트를 알 수 있습니다. 또한 최적화 검증 페이지가 될 페이지를 분류할 수 있습니다. 크롤링에 불이익을 주는 요소를 수정하려면 예비 분석에서 이러한 데이터를 고려해야 합니다.

외부 도구에서 데이터 읽기

구글 서치 콘솔 / 빙 서치 콘솔 / 빙 서치 콘솔

Google과 Bing의 Search Console에서 정성적 데이터와 정량적 데이터를 모두 찾을 수 있습니다. 개선 사항을 모니터링하기 위해 이 데이터를 수집하는 것은 매우 좋은 방법입니다.

모바일/AMP 또는 SEO 오류와 관련된 문제, 누락된 키워드 또는 문제가 있는 페이지의 일반적인 기능이 무엇인지 이해하기 위해 이 데이터를 다시 교차 확인하시기 바랍니다.

저장해야 할 중요 데이터: 오류 수 및 유형, 크롤링 예산(일일 적중 횟수) 및 로드 시간, HTML 개선, 색인 생성된 페이지 수, 표현식 및 URL에 의한 위치/CTR/노출.

통계 탐색 GSC

일별 탐색 페이지 – 마이그레이션 전/후를 비교하기 위해 사용할 크롤링 예산 곡선

검색 엔진의 이러한 보기를 통해 사이트가 어떻게 해석되는지 이해할 수 있습니다. 또한 마이그레이션 후 KPI 모니터링의 기반이 됩니다. 엔진에서 보고한 SEO 오류를 먼저 고려하여 수정하는 것이 중요합니다.

순위 및 가시성

MyPoseo와 같은 포지셔닝 추적 도구는 사이트 가시성 및 키워드 연구를 단순화합니다.

순위 및 가시성 - myposeo

Google Search Console 데이터 외에도 틈새 시장에 대한 가시성 비율을 알아야 합니다. 이 데이터는 마이그레이션 후 분석에 필수적입니다.

마이포세오 트래킹

해석학

추적 및 분석 솔루션을 사용하여 사용자의 사용 데이터를 수집할 수 있습니다. 또한 자연 방문, 이탈률, 전환 터널, 경로 및 사이트 매력 측면에서 페이지 성능에 대한 정보를 제공합니다. 개선할 영역을 감지하고 실시간 분석을 위해 저장할 수 있는 데이터를 내보내야 합니다.

Google Analytics를 통해 지난 12개월 동안 한 번 이상 방문한 모든 URL을 내보내는 것은 많은 가치 있는 색인이 생성된 페이지를 검색하는 한 가지 방법입니다.
작업의 우선 순위를 지정하기 위해 방문 페이지를 분류하고, 검토되지 않은 페이지를 놓치지 말고, 권장 사항에서 영감을 주는 성능 요소를 다시 한 번 감지해 보십시오.

분할

예비 크롤링 및 외부 데이터 기록 후에 마이그레이션 경계를 완전히 볼 수 있습니다. 분석에서 마이그레이션을 검증하기 위해 다양한 측정항목에 따라 그룹화할 수 있는 페이지 세트를 생성할 수 있습니다.

OnCrawl을 사용하면 10개 세트 또는 15개 페이지 그룹 세트를 생성할 수 있습니다. 이 기능을 사용하여 마이그레이션 세트를 생성하지 않는 이유는 무엇입니까?

개선할 각 영역에 대한 범주를 만듭니다. OnCrawl을 사용하면 불량, 무거움, 중복, 로봇이 방문하지 않음, 사용자가 거의 방문하지 않음, 수신 링크가 너무 적거나 너무 깊음 등 350개 이상의 메트릭을 기반으로 그룹을 만들 수 있습니다. 재설계를 사후 검증할 수 있습니다.

전문가 팁: 1초 이상 응답하는 모든 페이지, 크롤링 속도가 좋지 않고 순위 데이터와 인간 행동의 교차가 있는 페이지(GSC의 CTR 또는 분석의 이탈률)를 그룹화할 수 있습니다. 올바른 결정을 내릴 수 있습니다.
크롤링, 로그 및 분석 데이터를 교차 확인하는 것은 마이그레이션에 대한 완전하고 현실적인 분석을 수행하는 가장 좋은 방법입니다.

편집, 생성, 삭제할 페이지

수집된 데이터 덕분에 방문자가 가장 많은 페이지, 중복 콘텐츠 비율이 가장 중요한 페이지, 아키텍처에서 누락된 페이지 등을 식별할 수 있습니다.

구조 조정은 가장 불리한 SEO 문제 및 SEO 규정 준수를 수정하는 것 외에도 엔진 사용자의 핵심 문장을 중심으로 사이트가 풍부해지고 재정렬될 수 있도록 해야 한다는 점을 명심해야 합니다. 그들은 귀하의 페이지에 있는 데이터를 자신의 단어로 검색합니다. 탐색 및 의미 조정 작업은 종종 무시되는 작업이지만 순위 측면에서 최고의 성능을 제공합니다.

사용자의 요구에 가장 적합한 새 허브 및 랜딩 페이지를 추가해야 합니다. 사이트가 가장 잘 배치되지 않은 쿼리와 정렬되어야 합니다.

[사례 연구] 재설계가 SEO에 불이익을 주지 않도록 하십시오.

웹사이트 재설계 1년 후, EasyCash는 곧 그들이 바라던 성능이 거기에 없다는 것을 깨달았습니다. 그들은 몇 가지 SEO 장애물을 식별하고 해결했습니다.
사례 연구 읽기

내부연계관리

내부 연결은 이제 그 어느 때보다 성공적인 SEO 구조 조정의 핵심 요소 중 하나입니다. 앵커의 변형, 내부 인기 확산의 최적화 및 앵커의 의미적 정렬은 강력한 동맹입니다.

인랭크 플로우 - 사이트 마이그레이션

OnCrawl과의 최적화된 내부 연결 표현

시간을 내어 다양한 링크 블록을 통해 페이지의 인기가 어떻게 전파되는지 이해하십시오. 페이지에서 관련 없는 링크를 최대한 줄이십시오. 가장 좋은 예는 메가 메뉴입니다.

모든 페이지의 모든 페이지에 대한 링크를 만들지 마십시오. 이것은 역효과입니다. 카테고리 헤더에 대한 링크는 유지하면서 HTML 코드에서 동일한 사일로에 있지 않은 링크를 제거합니다.

내비게이션도 로봇 덫입니다. 가장 가까운 단위인 수십, 수백으로 이동할 수 있는 알고리즘을 사용하여 페이지 사이에 바로 가기를 만들어 보십시오.

페이지를 가리키는 앵커를 최대한 다양하게 만드십시오. 이를 통해 엔진에 넓은 의미 필드를 사용하고 있으며 페이지 중요도 점수와 페이지 크롤링을 선호한다는 것을 보여줄 수 있습니다.

또한 매력적이지 않고 인기 있는 페이지를 생성하지 않도록 바닥글 링크를 줄이거나 분할하는 방법을 고려하십시오. CGU 또는 뉴스레터 구독 링크와 도메인에서 나가는 링크는 많은 내부 페이지 순위 누출입니다. 또한 소셜 네트워크에 대한 링크를 조심하십시오. 이러한 사이트는 종종 귀하보다 크며 귀하 사이트의 페이지 순위를 빨아들입니다.

리디렉션

이 활동은 일이 잘못될 수 있으므로 많은 주의가 필요합니다. 새로운 트리 구조가 있는 경우 이를 일치시킬 수 있도록 현재 리디렉션 규칙을 검색하는 것이 중요합니다. 리디렉션 문자열을 방지하려면 이전 리디렉션 규칙을 업데이트해야 합니다.
또한 모든 이전 URL이 301에서 새 URL로 리디렉션되는지 확인해야 합니다.

테스트 크롤링은 모든 이전 URL 목록을 내보내고 최대 깊이가 1인 시작 URL에 추가하여 수행할 수 있습니다.
특정 HTTPS 마이그레이션의 경우(URL 구조 변경 여부에 관계없이) 모든 내부 링크가 업데이트되었는지 확인합니다(HTTPS 페이지에서 HTTP 페이지로의 내부 링크 없음). 이 작업을 수행하기 위한 Custom Fields OnCrawl이 있습니다.

전문가 팁: 순위를 매길 페이지에 대한 바로가기 페이지 생성(허브 페이지 덕분에 제품 페이지), 로딩 시간 개선, 페이지 콘텐츠 볼륨 증가, 사이트맵 생성 및 고아 페이지 수정, 표준 페이지, 중복 콘텐츠 감소…
트래픽이 많은 페이지에는 특별한 주의가 필요하지만 SEO에서는 모든 URL이 중요하다는 점을 강조하는 것이 중요합니다.

트래픽이 많은 페이지에는 특별한 주의가 필요하지만 SEO에서는 모든 URL이 중요하다는 점을 강조하는 것이 중요합니다.

레시피 단계

마이그레이션의 이 필수 단계는 소스 코드의 실수나 필요 표현을 이해하는 데 주의해야 하는 기간입니다.

검색 엔진 개발 플랫폼 보호

htpasswd는 검색 엔진에서 크롤링된 스테이징 URL을 보지 않도록 하는 권장 솔루션입니다. 또한 이 방법을 사용하면 차단 robots.txt 파일이나 메타 로봇이 "허용하지 않음"을 실행하지 않도록 할 수 있습니다. 생각보다 자주 발생합니다.

전문가 팁: 개발 중인 사이트는 향후 사이트의 코드를 보장하기 위해 ISO여야 합니다.

각 코드 전달의 품질 확인

이 단계에서 레시피 플랫폼에서 정기적으로 크롤링을 시작하여 사이트가 올바른 방향으로 이동하고 있는지 확인해야 합니다. 두 버전을 함께 비교하려면 Crawl Over Crawl을 만드는 것이 좋습니다.

주저하지 말고 확인하세요:

  • Link Juice 전송 및 내부 연결
  • 페이지 깊이의 진화
  • 오류 40x 및 이 페이지에 대한 링크
  • 오류 50x 및 이 페이지에 대한 링크
  • 제목, 메타 설명 및 로봇 태그의 품질
  • 소스 코드 및 중복 콘텐츠 요소의 품질.

코드가 W3C와 호환되는지 확인하십시오. 우리는 종종 그것을 잊어 버리지 만 의미 데이터에 오류가 포함되지 않고 소스 코드가 야심 찬 수준이며 최적화 규칙이 경계 전체에 적용된다는 것은 Google의 첫 번째 권장 사항 중 하나입니다.

전문가 팁 : 리디렉션이 새 리디렉션을 가리키지 않도록 하려면 이전 리디렉션 규칙을 업데이트해야 합니다.
모든 이전 URL이 301에서 새 URL로 리디렉션되는지 확인해야 합니다. 테스트 크롤링은 모든 이전 URL 목록을 내보내고 최대 깊이가 1인 시작 URL에 추가하여 수행할 수 있습니다.

사이트맵. xml 파일

코드가 안정적이고 테스트 크롤러가 모든 URL을 발견하면 사이트의 모든 URL을 내보낼 수 있습니다. 이를 통해 sitemap.xml 파일(또는 sitemap_index.xml)을 빌드할 수 있습니다.
robots.txt에 주소를 추가하고 사이트 루트에 배치합니다(여기에서 제공되는 사이트맵 사양에서 권장함).

전문가 팁: 사이트의 큰 섹션별로 사이트맵을 만들면 Google Search Console에서 사이트의 각 부분에 대한 색인 생성을 독립적으로 추적할 수 있습니다.
모든 이전 리디렉션 URL이 포함된 사이트맵 파일을 만들어 엔진이 각 URL을 강제로 전달하도록 합니다.

최신 버전의 OnCrawl에는 sitemap.xml 연구와 관련된 보고서가 포함됩니다. 이를 통해 누락된 URL이 없는지, 사이트맵이 URL과 표준이 다른 페이지 또는 404를 가리키는 페이지를 가리키지 않는지 확인할 수 있습니다.

사이트맵의 페이지

사이트맵 배포

사이트맵 분석 보고서의 예

사이트맵에 대해 자세히 알아보기 xml.xml

라이브 버전으로 전환하는 날

레시피가 완료되고 모든 플레이어가 코드를 확인합니다. 따라서 새 코드를 실시간으로 전달하기 위해 모든 신호가 녹색으로 표시됩니다. 중요한 페이지는 특별한 주의를 기울여야 하기 때문에 SEO는 영향을 받지 않습니다. 그러나 귀하는 Google 측에서 수행할 모든 조치에 대한 보증인이기도 합니다.

다음은 SEO로서의 작업 목록입니다.

  • robots.txt 파일을 확인하십시오.
  • 코드를 온라인으로 확인하십시오.
  • 온라인 사이트맵을 확인하십시오.
  • 리디렉션을 확인하십시오.

모든 것이 정상이면:

  • 강제 모터 크롤링
  • 실시간으로 로그 및 상태 코드 확인

각 단계에 대해 전용 크롤링을 시작할 수 있습니다. 목표는 페이지를 검증하는 것이므로 더 좁은 경계에서 크롤링을 사용하여 반응성을 높일 수 있습니다.

전문가 팁: 전체 사이트를 테스트하지 않고 변경 사항의 참조 페이지를 테스트하려면 최대 깊이 1로 크롤링을 정의하십시오.

실시간 후속 조치

온라인 출시 후에는 이전/이후 SEO를 비교할 수 있어야 하며 마이그레이션이 긍정적인 영향을 미쳤는지 또는 최소한의 부정적인 영향을 미쳤는지 확인할 수 있어야 합니다.

새 사이트가 가동되고 실행되면 변경 사항의 영향을 모니터링해야 합니다. 첫 번째 단계로 매주 순위 및 인덱싱을 모니터링합니다. 결론을 내리려면 짧은 한 달을 기다려야 할 것으로 예상되므로 인내심을 가져야 합니다.

이전 후 웹마스터 도구에서 사이트 성능에 비정상적인 이상이 있는지 확인하세요.

순위를 확인하기 전에 검색 엔진에 의한 페이지의 인덱싱 비율과 캐싱을 따르십시오.

소개에서 말했듯이 엔진이 새 버전에 적응하는 데 시간이 걸리며 이 기간 동안 위치가 상당히 변동될 수 있습니다.

마이그레이션 전후에 Crawl Over Crawl(Crawl Over Crawl Comparison)을 실행하여 데이터를 비교하는 것이 효율성을 높이는 가장 좋은 방법입니다.

결론

마이그레이션은 SEO에 중요하고 종종 유익한 시간입니다. OnCrawl은 이러한 단계를 함께할 것입니다. 초기 크롤링부터 유효성 검사 메트릭의 후속 조치 및 로그를 통한 검색 엔진 반응 분석까지 운영 작업이 간소화됩니다.

무료 평가판 시작