2011년에 피해야 할 SEO 클로킹 기법

게시 됨: 2011-01-27

Google Web Spam의 책임자인 Matt Cutts는 2010년 말 Ozzie와 Emmy(The Matt Cutts "Catts")를 떠나 Twitter를 통해 웹마스터와 SEO를 위한 짧은 글을 올렸습니다. 휴가 시즌 동안 몇 가지 Black Hats를 위해.

Google은 2011년 1분기에 클로킹에 대해 더 자세히 살펴볼 것입니다. 페이지 콘텐츠뿐만 아니라 중요합니다. 사용자 대신 Googlebot에 대한 다른 헤더/리디렉션을 피하세요.

클로킹은 다른 콘텐츠, 레이아웃, 기능 또는 헤더(Mosaic 클로킹으로 알려진 완전히 다른 페이지 또는 페이지의 부분 구성요소)를 사용자의 웹 브라우저가 아닌 검색 엔진 스파이더에 표시하는 데 사용되는 기술입니다.

윤리적 은폐는 "검은 모자"가 아니지만 과거에 스패머는 은폐 기술을 조작하는 방법을 사용했습니다. 명확성을 위해 (Google) 알고리즘을 게임하기 위해 이를 은폐 스팸이라고 합시다. 이것은 새로운 현상이 아닙니다. 처음에 메타 키워드 태그는 스패머에 의해 남용되었으며 결과적으로 이제 더 이상 순위 요소가 아니며 <noscript> 태그도 과거에도 남용되었으므로 일부 의심으로 취급될 수 있습니다. 남용된 HTML 요소에 대한 피난처….)

먼저, 가능하면 클로킹을 피하십시오. 클로킹은 웹사이트가 인덱스에서 불이익을 받거나 제외되지 않도록 Google의 웹마스터 가이드라인을 준수하여 구현해야 하는 경우 적절한 윤리적 방식으로 수행되어야 하는 고위험 행위입니다.

불행히도 일부 웹마스터는 그 결과를 이해하지 못하고 무심코 콘텐츠, 링크 또는 전체 웹사이트를 숨길 수 있습니다. 이 문서에서는 스팸 은폐로 (잘못) 해석될 수 있는 몇 가지 일반적인 현장 기능에 대해 간략히 설명합니다.

Google은 은폐 스팸 사례를 적극적으로 조사하고 있으며 색인에서 웹사이트를 금지하고 있습니다. 그들은 또한 웹마스터 도구를 통해 웹마스터에 대한 알림과 함께 클로킹 및 부자연스러운 링크의 감지를 추적하고 있습니다. Google은 이제 알고리즘 방식으로 은폐 스팸 을 탐지하는 데 점점 더 좋아지고 있습니다. IP 전달도 오류가 없는 것은 아닙니다. 물론 Google은 경쟁업체가 페이지에서 이상한 점을 감지하면 스팸 보고서를 사용하도록 항상 권장합니다.

클로킹 스팸을 알고리즘으로 식별하려면 검색 엔진이 둘 이상의 메커니즘(예: 둘 이상의 IP 범위, 사용자 에이전트 식별자 또는 HTML/JavaScript 기능의 다양한 수준)을 통해 얻은 단일 웹 페이지를 비교해야 합니다. 마이크로소프트는 은폐된 웹 페이지의 탐지를 용이하게 하는 시스템에 대해 2006년 말에 특허를 출원했습니다.

당연히 이것은 검색 엔진이 비교를 위해 웹 페이지의 두 가지 예를 수집하고 분석할 수 있는 방법에 대한 질문으로 이어집니다. 일부 방법에는 다음이 포함될 수 있습니다.

  • 콘텐츠 주제 분석, 페이지 세분화, LSA(Latent Semantic Analysis), 키워드 사용, 페이지 링크 및 기타 페이지 요소를 사용한 부분 콘텐츠 차별화
  • 웹 스팸을 분석하기 위한 다른 IP 주소/별도의 IP 범위 또는 프록시
  • 다양한 사용자 에이전트(예: 브라우저 사용자 에이전트를 사용하여 숨겨진 콘텐츠 확인)
  • 웹마스터 커뮤니티의 스팸 보고서
  • 사용자 테스트
  • 클로킹 확인을 위한 5개 이상의 연결 리디렉션 분석(5개의 연결 리디렉션을 통해 PageRank, 권한, 신뢰 등의 색인 및 흐름을 제한할 수 있음)
  • JavaScript 코드의 향상된 해석(특히 링크 또는 리디렉션이 포함된 복잡한 및/또는 인코딩된 JavaScript 기능 평가)
  • 쿠키를 수락하는 메커니즘(위의 JavaScript 및 리디렉션 분석과 함께 잠재적으로)

물론 IP 전달 문제를 피하기 위해 데이터 수집을 별도의 회사에 아웃소싱할 수 있습니다.

회사가 사용자에게 다른 정보나 추가 정보를 제공하고자 하는 경우가 있습니다. 예를 들어:

  • 지역 타겟팅
  • 로그인 사용자(맞춤형 홈페이지 경험 등)
  • 추천 추적 – 예를 들어 페이지에서 검색어와 일치하는 단어를 강조 표시하는 것과 같이 검색 엔진 검색어를 기반으로 사용자에게 피드백을 제공합니다.
  • 휴대폰 및 터치 장치용 장치 클로킹
  • 특정 브라우저 또는 이전 버전과의 호환성을 위한 최적화
  • 디스플레이 최적화(일반적으로 CSS를 통해 제어할 수 있음)
  • 첫 번째 클릭 무료 – 또는 처음 다섯 번 클릭 무료
  • A/B 또는 다변수 테스트
  • 가상 URL(링크 클로킹)
  • 연령 확인 표시(www.bacardi.com은 사용자 에이전트 감지 및 쿠키의 조합을 사용하여 사용자에게 연령 확인 환영 페이지를 표시하지만 검색 엔진이 웹사이트에 액세스할 수 있도록 합니다. Google은 14세에 불과함)
  • 부하 분산
  • 글꼴 교체(sIFR 또는 Cufon과 같은 기술 사용) – 참고: Google 미리보기에는 최적이 아닐 수 있음(2010년 12월 기준)
  • SWF 개체

구성이 잘못되면 스팸 클로킹이 발생하거나 SEO에 최적화되지 않을 수 있으므로 위에서 언급한 방법이나 기능을 사용할 때 SEO에 미치는 영향을 고려해야 합니다.

자, 이것은 은폐하는 방법에 대한 튜토리얼이 아닙니다. 이것은 "2011년 은폐 스팸 금지 목록"이거나 최소한 2011년 초반에 피해야 할 기술이나 해결해야 할 문제에 대한 헤드업입니다.

일부 형태의 은폐는 고의적이지만(예: IP 전달 또는 사용자 에이전트 은폐) 많은 형태의 은폐 스팸은 우발적일 수 있습니다. 웹마스터가 문제를 인식하지 못할 수 있으므로 의도하지 않게 Google에서 차단되는 우발적인 유형의 클로킹 스팸이 가장 우려됩니다. 대기업도 가끔 틀립니다.

우리는 웹마스터와 SEO가 웹사이트에 이러한 기술이 없는지 확인하도록 교육하고 보장하기 위해 아래에서 가장 일반적인 스팸 은폐 기술 을 조사할 것입니다.

일반적으로 웹마스터가 사용자 또는 검색 엔진의 콘텐츠를 숨길 수 있는 세 가지 방법이 있습니다.

  1. IP 전달
  2. 사용자 에이전트 분석(Bruce Clay의 무료 SEO 클로킹 검사기를 사용하여 사용자 에이전트 클로킹을 확인할 수 있습니다.
  3. JavaScript 또는 리디렉션 실행, 다양한 HTML 요소의 인덱싱 또는 스파이더 기능과 같은 알려진 검색 엔진 동작 악용

요청하는 웹 브라우저 또는 검색 엔진 스파이더의 IP 주소를 기반으로 다른 콘텐츠를 제공합니다. [IP Delivery는 여기에서 더 자세히 다룹니다.]

역방향 DNS 및 순방향 DNS

역방향 DNS 및 정방향 DNS 조회는 클로킹의 한 형태가 아니지만 요청하는 IP 주소의 DNS 레코드를 쿼리하는 데 사용할 수 있습니다. Google은 주장하는 Googlebot이 누구인지 확인하는 방법에 대한 세부정보를 제공합니다.

요청하는 웹 브라우저 또는 검색 엔진 스파이더의 사용자 에이전트를 기반으로 다른 콘텐츠를 제공합니다. 예: Googlebot/2.1(+http://www.google.com/bot.html) 또는 Mozilla/5.0(Windows, U, MSIE 7.0, Windows NT 6.0, en-US)

Google은 JavaScript가 포함된 페이지의 색인을 생성할 수 있지만 JavaScript 리디렉션을 따르지 않을 수 있습니다. 그러나 JavaScript 코드에 대한 Google의 해석이 크게 향상되었습니다(예: >Google 미리보기 생성기는 JavaScript, AJAX, CSS3, 프레임 및 iframe을 렌더링함).

웹마스터는 때때로 서버 측 리디렉션을 구현할 수 없을 때 자바스크립트 리디렉션을 사용하여 실수로 Googlebot을 첫 번째 페이지에 남겨두고 웹 브라우저(자바스크립트 리디렉션 이후)를 다른 콘텐츠가 포함된 두 번째 페이지로 전송하여 클로킹 스팸으로 플래그를 지정합니다.

다음 코드를 찾으십시오.

<script type="text/javascript"> window.location="http://www.yoursite.com/second-page.html" </script>

HTML 페이지의 헤드 섹션에 추가된 태그로 일정 기간 후에 사용자를 다른 페이지로 리디렉션합니다. 메타 새로 고침 태그는 단독으로 사용될 때 클로킹으로 간주되지 않지만 JavaScript, 프레임 또는 기타 기술과 결합되어 사용자를 검색 엔진 스파이더에 다른 페이지로 보낼 수 있습니다.

다음 코드를 찾으십시오.

<메타 http-equiv="refresh" content="0;url=http://www.yoursite.com/second-page.html">

이중/다중 메타 새로 고침 또는 리퍼러 클로킹

여러 메타 새로 고침을 사용하여 제휴 웹사이트에서 리퍼러를 숨길 수 있습니다. SEO에 부정적인 영향을 미치고 제휴 파트너의 서비스 약관(TOS)에 위배될 수도 있으므로 모든 종류의 여러 리디렉션을 연결하지 마십시오.

JavaScript 또는 <noscript> 태그의 메타 새로 고침

자, 이제 우리는 "검은 모자"의 영역으로 들어가고 있습니다. 웹마스터가 메타 새로고침을 자바스크립트와 결합하는 것이 좋지 않은 경우를 제외하고는 결합할 가능성이 거의 없습니다.

이것은 검색 엔진이 감지하기 쉽습니다. 하지마

검색 엔진은 여러 개의 연결된 리디렉션을 따르지 않을 수 있습니다(HTML 사양의 지침에 따라 권장 수는 5개의 리디렉션으로 설정됨). Google은 약 5개의 연결된 리디렉션을 따를 수 있습니다. 웹 브라우저는 더 많은 것을 따를 수 있습니다.

다중 연속 리디렉션(특히 다양한 유형의 리디렉션 301, 302, 메타 새로 고침, JavaScript 등 결합)은 페이지 로드 시간에 영향을 미치고 PageRank의 흐름에 영향을 미칠 수 있으며(301 리디렉션도 일부 PageRank 감소를 볼 수 있음) 클로킹으로 간주될 수 있습니다. 스팸.

웹 브라우저가 따라갈 리디렉션 수에 대한 데이터를 찾을 수 없었기 때문에 빠른 연결 리디렉션 스크립트를 만들어 내 컴퓨터에 설치된 일부 브라우저를 테스트하고 대략적인 리디렉션 수에 대한 통계를 제공했습니다(리디렉션 유형별) . 스크립트를 최대 5000개의 연결된 리디렉션으로 제한했습니다.

웹 브라우저 버전 약 301개의 리디렉션 수 약 302개의 리디렉션 수 메타 새로 고침 리디렉션의 대략적인 수 JavaScript 리디렉션의 대략적인 수
구글 크롬 8.0.552.224 21 21 21 5000 이상
(한도 불명)
인터넷 익스플로러 8.0.6001.18702IC 11 11 5000 이상
(한도 불명)
5000 이상
(한도 불명)
모질라 파이어 폭스 3.5.16 20 20 20 3000 이상
(3000 JS 리디렉션 후 브라우저가 정지되므로 알 수 없는 제한)
원정 여행 3.1.2 (525.21) 16 16 5000 이상
(한도 불명)
5000 이상
(한도 불명)

스크립트가 작성되면서 추가 테스트를 실행하고 리디렉션 URL을 Google에 제출할 것이라고 생각했습니다. Twitter의 스크립트도 링크했습니다. 결과는 아래 표에 있습니다.

검색 엔진 사용자 에이전트 호스트 IP 약 301개의 리디렉션이 따랐습니다.
Microsoft *IP 범위를 기준으로 가정
Mozilla/4.0(호환, MSIE 7.0, Windows NT 6.0)
65.52.17.79 25
Google
Mozilla/5.0(호환됨, Googlebot/2.1, +http://www.google.com/bot.html)
66.249.68.249 5
야후
Mozilla/5.0(호환, Yahoo! Slurp, http://help.yahoo.com/help/us/ysearch/slurp)
67.195.111.225 4
트위터
트위터봇/0.1
128.242.241.94
링크드인
LinkedInBot/1.0(호환됨, Mozilla/5.0, Jakarta Commons-HttpClient/3.1 +http://www.linkedin.com)
216.52.242.14 1
포스트랭크
PostRank/2.0(postrank.com)
204.236.206.79 0

이 경우 Googlebot은 영구 리디렉션 중 5개만 크롤링했지만 Google에서 약 25개의 연결된 리디렉션을 따르는 위의 Microsoft와 유사한 맥락에서 5개의 리디렉션 봇 제한을 초과하는 리디렉션을 테스트하기 위해 크롤링 기반 확인을 구현할 수 있다고 가정하는 것이 공정할 수 있습니다. 참고: 도메인 도구의 IP Whois 정보를 기반으로 하는 Microsoft 소유 IP라고 가정했습니다.

프레임을 사용하면 웹마스터가 HTML 페이지 내에 다른 문서를 포함할 수 있습니다. 검색 엔진은 전통적으로 웹마스터가 검색 엔진이 페이지의 일부 또는 전체 콘텐츠를 볼 수 없도록 하는 상위 페이지에 프레임 콘텐츠를 잘 표시하지 않았습니다.

프레임과 iFrame은 합법적인 HTML 요소이지만(SEO 관점에서 모범 사례는 아니지만) 다른 기술과 결합하여 사용자를 속일 수도 있습니다.

JavaScript 리디렉션이 있는 프레임

JavaScript 리디렉션이 있는 프레임을 포함하면 검색 엔진 스파이더가 첫 번째 페이지에 남고 JavaScript가 활성화된 사용자를 몰래 두 번째 "숨겨진" 페이지로 리디렉션할 수 있습니다.

나는 당신이 이것을 사용하기로 선택한 정당한 "흰색 모자" 이유를 생각할 수 없습니다. 패널티나 금지 조치를 받을 수 있습니다. 액자 문서의 소스 코드를 확인하고 이 코드를 제거하거나 적절한 SEO 친화적인 리디렉션을 구현하세요.

<noscript> 태그는 텍스트 전용 브라우저와 검색 엔진이 고급 콘텐츠 형식을 해석할 수 있도록 JavaScript 콘텐츠에 상응하는 비 자바스크립트를 제공하도록 설계되었습니다. <noscript> 태그는 과거 스패머에 의해 악용된 적이 있기 때문에 약간의 의심으로 취급될 수 있습니다.

컨텐츠가 모든 사용자에게 적합하고 <noscript> 태그를 사용할 필요가 없도록 점진적인 향상을 염두에 두고 JavaScript/AJAX 기능을 빌드하십시오. 웹사이트에서 <noscript> 태그를 사용하고 코드를 업데이트할 수 없는 경우 <noscript> 태그 내의 텍스트, 링크 및 이미지가 태그가 나타내는 JavaScript, AJAX 또는 Flash 콘텐츠를 정확하고 명확하며 간결하게 설명하는지 확인하십시오. 방법.

문제가 되는 페이지 또는 웹사이트에 색인 문제가 있는 경우 철저한 웹사이트 SEO 감사의 일환으로 <noscript> 코드를 수정하는 것을 고려하십시오.

기업은 CDN(콘텐츠 전송 네트워크)을 통해 정적 콘텐츠를 여러 지리적 위치에 배포하여 최종 사용자의 성능을 향상시킬 수 있습니다. CDN 구성에 따라 클라이언트 요청을 콘텐츠를 제공하기 위해 사용 가능한 최상의 소스로 라우팅하는 여러 가지 방법이 있습니다. CDN은 일반적으로 사용자에게 가장 빠른 시간 내에 콘텐츠를 제공해야 하는 글로벌 기업에서 구현하는 복잡한 영역입니다.

CDN을 사용하는 경우 검색 엔진이 사용자에게 표시되는 것과 동일한 콘텐츠 및 정보에 액세스할 수 있도록 하고 검색 엔진이 사기성으로 잘못 해석할 수 있는 내용이 없는지 확인합니다.

해커는 일반적인 CMS에 대한 익스플로잇을 사용하여 윤리적이지 않은 타사 웹 사이트로 트래픽을 유도했습니다. 한 가지 예는 클로킹을 사용하여 검색 엔진에 제약 관련 콘텐츠를 표시하지만 웹마스터에게는 해당 콘텐츠를 숨긴 WordPress Pharma Hack입니다.

CMS, 웹 서버 및 운영 체제 소프트웨어가 최신 버전을 실행 중이고 보안이 유지되었는지 확인하십시오. 가장 일반적인 익스플로잇은 잘못된 비밀번호, 안전하지 않은 소프트웨어 또는 스크립트, 불만을 품은 직원 및 사회 공학 속임수입니다.

HTTP 헤더는 요청된 페이지에 대한 추가 정보를 검색 엔진 스파이더 또는 웹 브라우저로 보냅니다. 예를 들어 페이지 상태, 캐시/만료 정보, 리디렉션 정보 등

속이기 위해 검색 엔진에 다른 헤더를 보내면 패널티가 발생할 수 있습니다. 예를 들어, 검색 엔진이 좋은 콘텐츠로 상위 버전을 유지하도록 속이기 위해 높은 순위 페이지의 좋은 콘텐츠를 가입 양식으로 교체하고 만료 및/또는 캐시 제어 헤더를 변경하는 것은 작동하지 않습니다.

Googlebot은 만료 및 캐시 제어 헤더에 관계없이 콘텐츠를 주기적으로 다운로드하여 콘텐츠가 실제로 변경되지 않았는지 확인할 수 있습니다.

무료 SEO 도구 중 하나를 사용하여 서버 응답 헤더의 상태를 확인할 수 있습니다.

Google 인용하기:

“도어웨이 페이지는 일반적으로 각 페이지가 특정 키워드나 구문에 최적화되어 있는 품질이 좋지 않은 페이지의 집합입니다. 많은 경우에 도어웨이 페이지는 특정 문구에 대한 순위를 매긴 다음 사용자를 단일 목적지로 안내합니다."

출처: http://www.google.com/support/webmasters/bin/answer.py?hl=ko&answer=66355

Matt Cutts는 여기에서 Doorway 페이지에 대해 호언장담합니다.

Google 웹사이트 최적화도구와 같은 다변수 테스트 도구를 사용하면 웹사이트 콘텐츠 및 디자인에 대한 변경 사항을 테스트하여 전환율(또는 측정된 기타 중요한 측정항목)을 개선함으로써 웹사이트의 효율성을 높일 수 있습니다.

다변수 테스트는 은폐의 윤리적 사용이지만 Google은 다음과 같이 말합니다.

"몇 달 동안 원본이 아닌 단일 조합을 100% 실행하는 사이트를 발견하거나 사이트의 원본 페이지에 방문자에게 표시되는 조합과 관련이 없는 키워드가 로드된 경우 해당 사이트를 삭제할 수 있습니다. 우리 색인에서".

반드시 은폐 스팸 자체는 아니지만 완전히 다른 주제에 대해 관련 없는 도메인(일반적으로 판매용이거나 만료되었지만 여전히 PageRank 또는 중요한 외부 링크가 있는 도메인)을 악성 또는 관련 없는 도메인으로 리디렉션하는 미끼 및 전환 기술 .https://www.youtube.com/watch?v=70LR8H8pn1Mhttps://searchengineland.com/do-links-from-expired-domains-count-with-google-17811

이는 사용자가 다른 웹사이트를 기대하고 관련 없는 앵커 텍스트를 도메인에 전달할 수 있으므로 사용자를 오도하는 것입니다.

또한 PR이나 링크 부스트를 위해 만료된 도메인을 외부 링크로 등록하는 데 대한 크레딧을 기대하지 마십시오.

역사적으로 검색 엔진은 Flash 콘텐츠를 효과적으로 해석하고 색인을 생성하는 데 어려움을 겪었지만 점점 더 나아지고 있습니다.

웹마스터는 Flash 지원 브라우저가 없고 검색 엔진을 위한 표준 HTML 웹사이트 "뒤에서" 구축하거나 <noscript> 태그, JavaScript 또는 유사한 방법을 사용하여 텍스트 콘텐츠의 색인을 생성하는 사용자와 검색 엔진을 고려해야 했습니다. 불행히도 Flash 콘텐츠에서 색인된 콘텐츠가 텍스트 콘텐츠와 일치하지 않는 경우 검색 엔진에서 이를 클로킹으로 실수로 식별할 수 있습니다.

Flash로 전체 웹 사이트를 구축하는 것은 여전히 ​​SEO 관점에서 좋은 생각이 아닙니다. 그러나 일부 Flash 콘텐츠가 있는 경우 SWFObject 또는 유사한 기술을 구현하여 Flash가 사용자와 검색 엔진 모두에 대해 정상적으로 저하되도록 하는 것이 좋습니다.

Popover div 및 광고만으로는 클로킹되지 않습니다. 전면 광고 또는 팝오버 div를 닫을 수 없는 경우(예: 사용자가 등록하지 않은 경우) 검색 엔진에 콘텐츠를 표시하고 사용자에게 가입 양식을 표시할 수 있습니다.

사용자가 전면 광고, 팝업, 팝오버, 오버레이된 div, 라이트 박스 등을 닫거나 건너뛰고 사용 가능한 콘텐츠를 볼 수 있는지 확인합니다.

AJAX(Asynchronous JavaScript And XML)는 웹 페이지가 페이지를 다시 로드하지 않고 서버에서 동적 콘텐츠를 검색할 수 있도록 하는 JavaScript의 한 형태입니다. 지난 몇 년 동안 매우 인기를 얻었으며 많은 Web 2.0 응용 프로그램에서 자주 사용됩니다.

AJAX는 사용자와 검색 엔진에 다른 콘텐츠를 제공하기 위해 기만적인 방법으로 사용될 수 있습니다.

또한 동전의 다른 면에서 "네거티브 클로킹" 접근 방식에서 사용자는 콘텐츠를 볼 수 있지만 검색 엔진은 서버에서 동적 콘텐츠를 검색하는 JavaScript 호출을 실행할 수 없기 때문에 볼 수 없습니다. 확인할 사항입니다.

이 기사에서 설명하는 많은 기술은 검색 엔진을 속이기 위한 무익한 시도로 결합, 절단 또는 조작될 수 있습니다.

그러한 예 중 하나는 JavaScript와 쿠키를 결합하여 콘텐츠를 숨기는 것입니다. JavaScript 기능이 쿠키(예: 검색 엔진 스파이더)를 쓰거나 읽을 수 없는 경우 쿠키가 활성화된 표준 사용자와 다른 콘텐츠를 표시합니다. 파렴치한 사람이 이 작업을 수행할 수 있도록 하는 몇 가지 JQuery 스크립트 예제도 있습니다.

링크 클로킹은 어떤 형식의 리디렉션을 사용하여 클릭한 URL과 다른 URL로 사용자를 보내는 것을 말합니다. 리디렉션은 위에서 본 것처럼 좋고 나쁨으로 사용될 수 있습니다. 링크 클로킹은 종종 분석 또는 유지 관리 목적으로 사용됩니다. 예를 들어 이렇게 하는 데에는 여러 가지 실용적인 이유가 있습니다.

  • 신디케이트된 PDF 또는 애플리케이션 내에서 계열사에 대한 링크를 유지하기 위해. 유사한 가상 URL을 사용하고 위의 리디렉션을 사용하여 계열사가 URL 구조를 업데이트하는 경우 가상 URL의 리디렉션을 업데이트할 수 있으므로 eBook 및 신디케이트된 콘텐츠의 링크가 계속 작동하도록 합니다.
  • 표준 버전의 URL보다 기억하기 쉬운 마케팅 및 광고 자료에 사용되는 가상 URL

물론 이것은 제휴 링크를 위장하는 것과 같이 오도하거나 속이는 데 사용될 수 있습니다(예: 링크를 http://mysite.com/vanity-url로 교체하고 이를 http://affiliate.com/offer.html로 리디렉션) ?=내 제휴 코드).

사용자를 속이거나 속이기 위해 JavaScript 또는 이와 유사한 메커니즘을 사용하여 앵커 텍스트 또는 링크 속성을 수정합니다. 이것은 사용자를 속이기 위해 페이지의 작은 구성 요소만 수정하는 클로킹의 한 형태입니다.

  • onClick 이벤트를 하이재킹하여 사용자를 검색 엔진의 다른 URL로 보냅니다.
  • 검색 엔진에 표시되는 링크에 rel="nofollow" 속성을 추가하고 사용자에게 표시되는 코드에서 제거
  • 검색 엔진으로 전송되는 앵커 텍스트에 키워드를 포함하도록 링크의 앵커 텍스트를 수정하고 사용자에게 다른 것을 표시

사용자를 속이기 위한 링크 하이재킹은 검색 엔진에 불이익을 주거나 웹사이트가 금지될 수 있으므로 피하십시오.

Google 블로그에서 권장하는 대로 사용자와 검색 엔진이 HiJAX를 사용하여 AJAX 콘텐츠를 볼 수 있도록 하는 이 기술의 윤리적 형식이 있습니다.

텍스트를 숨기는 것은 Google의 TOS 및 웹마스터 가이드라인에 위배됩니다. 검색 엔진은 텍스트 콘텐츠를 볼 수 있지만 사용자는 볼 수 없기 때문에 클로킹의 한 형태입니다. 다음 유형의 숨겨진 텍스트를 피하십시오.

  • 배경에 식별할 수 없는 텍스트(예: 검은색 바탕에 짙은 회색)
  • 글꼴 크기를 0으로 설정
  • 사용자가 링크임을 인지하지 못하도록 표준 본문 텍스트와 같은 키워드 풍부한 앵커 텍스트 스타일링
  • CSS(Cascading Style Sheets) 표시:없음
  • 이미지 뒤에 텍스트. 항상 까다로운 주제이며 종종 SEO 사이에서 논쟁의 여지가 있습니다. 이미지 뒤에 있는 텍스트가 이미지를 정확하고 공정하게 표현한 경우(예: 사용자 정의 글꼴이 있는 헤더) Matt Cutts를 인용하는 것이 "괜찮습니다". 궁극적인 솔루션은 특정 상황에 따라 다르지만 다음 리소스에서 몇 가지 지침을 확인하십시오. W3C: CSS를 사용하여 텍스트를 이미지로 교체, Farner 이미지 교체(FIR), 확장 가능한 인만 플래시 교체(sIFR)(sIFR로 교체된 텍스트는 2010년 12월 현재 Google 미리보기에는 표시되지 않습니다.)

검색 엔진 트래픽이 중요한 경우 클로킹과 관련하여 다음을 고려하십시오.

  • 위의 은폐의 명백하고 명확하지 않은 형태에 대해 잘 알고 있는지 확인하고 잠재적인 불이익을 피하기 위해 이러한 은폐가 사이트에서 어떻게 사용되는지 알고 있어야 합니다.
  • 어떤 형태의 클로킹을 구현하는 경우 잠재적인 불이익을 피하기 위해 SEO 관점에서 이를 적절하게 검토해야 합니다.