SEO-Cloaking-Techniken, die Sie 2011 vermeiden sollten
Veröffentlicht: 2011-01-27Der Leiter von Google Web Spam, Matt Cutts, nahm sich Ende 2010 eine Auszeit von Ozzie und Emmy (The Matt Cutts „Catts“), um einen kleinen Leckerbissen für Webmaster und SEOs über Twitter zu posten, was sicherlich zum Kater beitrug für ein paar Black Hats über die Ferienzeit.
Google wird sich im ersten Quartal 2011 mehr mit Cloaking befassen. Nicht nur der Seiteninhalt ist wichtig; Vermeiden Sie unterschiedliche Header/Weiterleitungen zum Googlebot statt zu den Nutzern.
Cloaking ist die Technik, die verwendet wird, um einem Suchmaschinen-Spider andere Inhalte, Layouts, Funktionen oder Kopfzeilen (eine völlig andere Seite oder Teilkomponenten der Seite, bekannt als Mosaic Cloaking) als dem Webbrowser eines Benutzers zu präsentieren.
Ethisches Cloaking ist kein „Black Hat“, jedoch haben Spammer in der Vergangenheit Methoden verwendet, um Cloaking-Techniken zu manipulieren, um es der Klarheit halber als Cloaking-Spam zu bezeichnen, um den (Google-) Algorithmus auszutricksen. Dies ist kein neues Phänomen. Anfangs wurde das Meta-Keywords-Tag von Spammern missbraucht und ist dadurch kein Rankingfaktor mehr und auch das <noscript>-Tag darf mit einigem Argwohn betrachtet werden, da es in der Vergangenheit ebenfalls missbraucht wurde (vielleicht sollten wir open ein Refugium für missbrauchte HTML-Elemente….)
Lassen Sie mich zunächst sagen, dass Sie, wenn irgend möglich, VERKLEIDUNG VERMEIDEN. Cloaking ist eine risikoreiche Übung, die, wenn sie implementiert werden muss, in angemessener ethischer Weise und unter Einhaltung der Google-Richtlinien für Webmaster durchgeführt werden sollte, um sicherzustellen, dass Ihre Website nicht bestraft oder aus dem Index gestrichen wird.
Leider verstehen einige Webmaster die Auswirkungen möglicherweise nicht und tarnen versehentlich Inhalte, Links oder ganze Websites, ohne es zu merken. Dieser Artikel umreißt einige der allgemeinen Vor-Ort-Funktionen, die als Cloaking-Spam (falsch) interpretiert werden können.
Denken Sie daran, dass Google Fälle von Cloaking-Spam aktiv untersucht und Websites aus ihrem Index verbannt. Sie verfolgen auch die Erkennung von Cloaking und unnatürlichen Links mit Benachrichtigungen an Webmaster über die Webmaster-Tools. Google wird jetzt immer besser darin, Cloaking-Spam algorithmisch zu erkennen, selbst die IP-Zustellung ist nicht unfehlbar, und natürlich ermutigt Google Ihre Konkurrenz immer, den Spam-Bericht zu verwenden, wenn sie etwas faul an Ihrer Seite entdecken.
Um Cloaking-Spam algorithmisch zu identifizieren, muss eine Suchmaschine eine einzelne Webseite vergleichen, die über zwei oder mehr Mechanismen (z. B. zwei oder mehr IP-Bereiche, User-Agent-Identifikatoren oder unterschiedliche Ebenen der HTML-/JavaScript-Funktionalität) erhalten wurde. Microsoft hat Ende 2006 ein Patent eingereicht, das ein System beansprucht, das die Erkennung einer getarnten Webseite erleichtert.
Dies führt natürlich zu der Frage, wie könnte eine Suchmaschine die beiden Beispiele einer Webseite zum Vergleich sammeln und analysieren? Einige Methoden können beinhalten:
- Partielle Inhaltsdifferenzierung unter Verwendung von Inhaltsthemenanalyse, Seitensegmentierung, Latent Semantic Analysis (LSA), Keyword-Nutzung, Links auf der Seite und anderen On-Page-Faktoren
- Unterschiedliche IP-Adressen/ getrennte IP-Bereiche oder Proxys zur Analyse von Web-Spam
- Verschiedene Benutzeragenten (z. B. einen Browser-Benutzeragenten verwenden, um nach getarnten Inhalten zu suchen)
- Spam-Berichte von der Webmaster-Community
- Benutzertests
- Analyse von mehr als 5 verketteten Weiterleitungen zur Überprüfung auf Cloaking (möglicherweise Begrenzung der Indexierung und des Flusses von PageRank, Autorität, Vertrauen usw. durch 5 verkettete Weiterleitungen)
- Verbesserte Interpretation von JavaScript-Code (insbesondere Auswertung komplexer und/oder verschlüsselter JavaScript-Funktionen, die Links oder Weiterleitungen enthalten)
- Mechanismus zum Akzeptieren von Cookies (möglicherweise in Verbindung mit der JavaScript- und Redirect-Analyse oben)
Natürlich könnte die Datenerfassung an ein separates Unternehmen ausgelagert werden, um das Problem der IP-Zustellung zu vermeiden
Es gibt Fälle, in denen ein Unternehmen seinen Benutzern andere oder zusätzliche Informationen zur Verfügung stellen möchte. Zum Beispiel:
- Geo-Targeting
- Angemeldete Benutzer (angepasstes Homepage-Erlebnis usw.)
- Referral-Tracking – Geben Sie dem Benutzer beispielsweise Feedback basierend auf seiner Suchmaschinenabfrage, wie z. B. das Hervorheben der Wörter auf einer Seite, die der Abfrage entsprechen
- Gerätetarnung für Mobiltelefone und Touch-Geräte
- Optimierung für bestimmte Browser oder für Abwärtskompatibilität
- Anzeigeoptimierung (obwohl dies normalerweise über CSS gesteuert werden kann)
- Erster Klick kostenlos – Oder die ersten fünf Klicks kostenlos
- A/B- oder multivariate Tests
- Vanity-URLs (Link-Cloaking)
- Altersüberprüfung anzeigen (www.bacardi.com verwendet eine Kombination aus User-Agent-Erkennung und Cookies, um Benutzern eine Willkommensseite zur Altersüberprüfung anzuzeigen, aber Suchmaschinen den Zugriff auf die Website zu ermöglichen. Obwohl Google erst 14 Jahre alt ist)
- Lastverteilung
- Schriftersetzung (über Technologie wie sIFR oder Cufon) – Hinweis: Eventuell aber nicht optimal für Google Preview (Stand Dezember 2010)
- SWF-Objekt
Stellen Sie sicher, dass Sie die SEO-Implikationen berücksichtigen, wenn Sie eine der oben genannten Methoden oder Funktionen verwenden, da eine falsche Konfiguration zu Cloaking-Spam führen kann oder für SEO nicht optimal ist.
Okay, das ist also keine Anleitung zum Tarnen; Es ist eine „2011 Cloaking-Spam No-No-Liste“ oder zumindest eine Übersicht über Techniken, die vermieden werden sollten, oder Probleme, die früh im Jahr 2011 behoben werden sollten.
Einige Formen von Cloaking sind absichtlich (z. B. IP-Zustellung oder Cloaking von Benutzeragenten), viele Formen von Cloaking-Spam können jedoch zufällig sein. Die versehentlichen Arten von Cloaking-Spam, die dazu führen, dass Sie versehentlich von Google gesperrt werden, sind äußerst besorgniserregend, da Webmaster sich des Problems möglicherweise nicht bewusst sind. Auch große Unternehmen liegen manchmal falsch.
Wir werden unten einige der gängigsten Cloaking-Spam-Techniken untersuchen, um Webmaster und SEOs aufzuklären und sicherzustellen, dass sie diese nicht auf ihrer Website haben.
Es gibt normalerweise drei Möglichkeiten, wie Webmaster Inhalte vor Benutzern oder Suchmaschinen verbergen:
- IP-Zustellung
- User-Agent-Analyse (Sie können mit dem kostenlosen SEO-Cloaking-Checker von Bruce Clay nach User-Agent-Cloaking suchen.
- Ausnutzen bekannter Suchmaschinenverhalten wie die Ausführung von JavaScript oder Redirects sowie die Indizierung oder Spider-Fähigkeit verschiedener HTML-Elemente
Ausliefern unterschiedlicher Inhalte basierend auf der IP-Adresse des anfragenden Webbrowsers oder Suchmaschinenspiders. [IP Delivery wird hier ausführlicher behandelt.]
DNS umkehren und DNS weiterleiten
Reverse-DNS- und Forward-DNS-Lookups sind keine Form der Tarnung, können aber verwendet werden, um die DNS-Einträge einer anfragenden IP-Adresse abzufragen. Google stellt Details bereit, wie Sie überprüfen können, ob der Googlebot derjenige ist, für den er sich ausgibt.
Ausliefern unterschiedlicher Inhalte basierend auf dem User-Agent des anfragenden Webbrowsers oder Suchmaschinenspiders. Zum Beispiel Googlebot/2.1 (+http://www.google.com/bot.html) oder Mozilla/5.0 (Windows; U; MSIE 7.0; Windows NT 6.0; en-US)
Google indexiert möglicherweise eine Seite, die JavaScript enthält, folgt aber möglicherweise nicht der JavaScript-Weiterleitung. Wir sehen jedoch erhebliche Verbesserungen bei der Interpretation des JavaScript-Codes durch Google (z. B. rendert der >Google-Vorschaugenerator JavaScript, AJAX, CSS3, Frames und Iframes).
Webmaster verwenden manchmal JavaScript-Weiterleitungen, wenn sie keine serverseitige Weiterleitung implementieren können, indem sie den Googlebot versehentlich auf der ersten Seite belassen und den Webbrowser (der der JavaScript-Weiterleitung folgt) auf eine zweite Seite mit anderem Inhalt senden und somit als Cloaking-Spam gekennzeichnet werden.
Achten Sie auf den folgenden Code:
<script type="text/javascript"> window.location="http://www.yoursite.com/second-page.html" </script>
Ein Tag, das dem Head-Bereich der HTML-Seite hinzugefügt wird, um Benutzer nach einem festgelegten Zeitraum auf eine andere Seite umzuleiten. Das Meta-Refresh-Tag gilt nicht als Cloaking, wenn es allein verwendet wird, es kann jedoch mit JavaScript, Frames oder anderen Techniken kombiniert werden, um einen Benutzer auf eine andere Seite zu den Suchmaschinen-Spidern zu leiten.
Achten Sie auf den folgenden Code:
<meta http-equiv="refresh" content="0;url=http://www.yoursite.com/second-page.html">
Doppelte/Mehrfache Meta-Aktualisierungen oder Referrer-Cloaking
Mehrere Meta-Aktualisierungen können verwendet werden, um den Referrer vor Affiliate-Websites zu verbergen. Vermeiden Sie die Verkettung mehrerer Weiterleitungen jeglicher Art, da dies negative Auswirkungen auf SEO haben und sogar gegen die Nutzungsbedingungen (TOS) Ihrer Affiliate-Partner verstoßen kann
Metaaktualisierung in JavaScript oder im <noscript>-Tag
OK, jetzt kommen wir in das Reich der „schwarzen Hüte“. Es ist unwahrscheinlich, dass ein Webmaster eine Metaaktualisierung mit JavaScript kombinieren würde, es sei denn, er hätte nichts Gutes im Sinn.
Dies ist für eine Suchmaschine leicht zu erkennen. Tu es nicht.
Suchmaschinen dürfen nicht mehreren verketteten Weiterleitungen folgen (gemäß Richtlinien in der HTML-Spezifikation wurde die empfohlene Anzahl auf 5 Weiterleitungen festgelegt). Google kann etwa 5 verketteten Weiterleitungen folgen. Webbrowser können weitere folgen.
Mehrere Back-to-Back-Weiterleitungen (insbesondere die Kombination verschiedener Arten von Weiterleitungen 301, 302, Meta-Aktualisierung, JavaScript usw.) wirken sich auf die Seitenladezeiten aus, können den PageRank-Fluss beeinträchtigen (sogar 301-Weiterleitungen können einen gewissen PageRank-Verfall feststellen) und könnten als Cloaking betrachtet werden. Spam.
Ich konnte keine Daten darüber finden, wie vielen Weiterleitungen ein Webbrowser folgt, also habe ich ein schnelles verkettetes Weiterleitungsskript erstellt, um einige der auf meinem Computer installierten Browser zu testen und einige Statistiken über die ungefähre Anzahl von Weiterleitungen bereitzustellen, denen gefolgt wird (nach Weiterleitungstyp). . Ich habe das Skript auf maximal 5000 verkettete Weiterleitungen beschränkt.
Webbrowser | Ausführung | Ungefähre Anzahl von 301 Weiterleitungen | Ungefähre Anzahl von 302 Weiterleitungen | Ungefähre Anzahl von Meta Refresh-Weiterleitungen | Ungefähre Anzahl von JavaScript-Weiterleitungen |
Google Chrome | 8.0.552.224 | 21 | 21 | 21 | Größer als 5000 (Grenze unbekannt) |
Internet Explorer | 8.0.6001.18702IC | 11 | 11 | Größer als 5000 (Grenze unbekannt) | Größer als 5000 (Grenze unbekannt) |
Mozilla-Firefox | 3.5.16 | 20 | 20 | 20 | Größer als 3000 (Limit unbekannt, da der Browser nach 3000 JS-Weiterleitungen zum Stillstand kam) |
Safari | 3.1.2 (525.21) | 16 | 16 | Größer als 5000 (Grenze unbekannt) | Größer als 5000 (Grenze unbekannt) |
Als das Skript geschrieben wurde, dachten wir, wir würden einen zusätzlichen Test durchführen und die Weiterleitungs-URL an Google senden. Wir haben das Skript auch von Twitter verlinkt. Die Ergebnisse sind in der folgenden Tabelle aufgeführt.
Suchmaschine | Benutzer-Agent-Host-IP | Es folgten ungefähr 301 Weiterleitungen |
Microsoft *Angenommen basierend auf dem IP-Bereich Mozilla/4.0 (kompatibel; MSIE 7.0; Windows NT 6.0) | 65.52.17.79 | 25 |
Google Mozilla/5.0 (kompatibel; Googlebot/2.1; +http://www.google.com/bot.html) | 66.249.68.249 | 5 |
Yahoo Mozilla/5.0 (kompatibel; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp) | 67.195.111.225 | 4 |
Twitter Twitterbot/0.1 | 128.242.241.94 | 3 |
LinkedIn LinkedInBot/1.0 (kompatibel; Mozilla/5.0; Jakarta Commons-HttpClient/3.1 +http://www.linkedin.com) | 216.52.242.14 | 1 |
PostRank PostRank/2.0 (postrank.com) | 204.236.206.79 | 0 |
Obwohl der Googlebot in diesem Fall nur 5 der permanenten Weiterleitungen gecrawlt hat, kann man davon ausgehen, dass Google eine Crawl-basierte Überprüfung implementiert, um Weiterleitungen jenseits der 5 Weiterleitungs-Bot-Grenze zu testen, ähnlich wie Microsoft oben, die ungefähr 25 verketteten Weiterleitungen folgen. Hinweis: Wir sind davon ausgegangen, dass dies eine Microsoft-eigene IP ist, basierend auf den IP-WHOIS-Informationen von Domain Tools.

Frames ermöglichen es einem Webmaster, ein anderes Dokument in eine HTML-Seite einzubetten. Suchmaschinen waren traditionell nicht gut darin, den gerahmten Inhalt der übergeordneten Seite zuzuordnen, wodurch ein Webmaster verhindern konnte, dass Suchmaschinen einen Teil oder den gesamten Inhalt einer Seite sehen.
Frames und iFrames sind legitime HTML-Elemente (auch wenn sie aus SEO-Sicht nicht oft Best Practice sind), sie können jedoch auch mit anderen Techniken kombiniert werden, um Benutzer zu täuschen.
Frames mit einer JavaScript-Weiterleitung
Das Einbetten eines Frames mit einer JavaScript-Umleitung kann Suchmaschinen-Spider auf der ersten Seite belassen und Benutzer mit aktiviertem JavaScript heimlich auf die zweite „versteckte“ Seite umleiten.
Ich kann mir keinen legitimen „White Hat“-Grund vorstellen, warum Sie sich dafür entscheiden würden, dies zu verwenden. Dies kann zu einer Strafe oder einem Bann führen. Überprüfen Sie den Quellcode Ihrer gerahmten Dokumente, entfernen Sie diesen Code oder implementieren Sie eine geeignete SEO-freundliche Weiterleitung.
Das <noscript>-Tag wurde entwickelt, um ein Nicht-JavaScript-Äquivalent für JavaScript-Inhalte bereitzustellen, damit Nur-Text-Browser und Suchmaschinen fortgeschrittenere Formen von Inhalten interpretieren können. Das <noscript>-Tag kann mit einigem Misstrauen behandelt werden, da es in der Vergangenheit von Spammern missbraucht wurde.
Erstellen Sie JavaScript/AJAX-Funktionalität mit progressiver Verbesserung im Hinterkopf, sodass der Inhalt für alle Benutzer geeignet ist und nicht die Verwendung des <noscript>-Tags erfordert. Wenn Ihre Website das <noscript>-Tag verwendet und Sie den Code nicht aktualisieren können, überprüfen Sie, ob alle Texte, Links und Bilder innerhalb des <noscript>-Tags den JavaScript-, AJAX- oder Flash-Inhalt, den es darstellt, genau, klar und präzise beschreiben Benehmen.
Wenn die betreffende Seite oder Website Indexierungsprobleme aufweist, sollten Sie den <noscript>-Code im Rahmen eines gründlichen Website-SEO-Audits überarbeiten.
Content Delivery Networks (CDNs) ermöglichen es Unternehmen, ihre statischen Inhalte über mehrere geografische Standorte zu verteilen, um die Leistung für Endbenutzer zu verbessern. Abhängig von der CDN-Konfiguration gibt es mehrere Möglichkeiten, die Clientanforderung an die beste verfügbare Quelle weiterzuleiten, um den Inhalt bereitzustellen. CDNs sind ein komplexer Bereich, der normalerweise von globalen Unternehmen implementiert wird, die Benutzerinhalte so schnell wie möglich bereitstellen müssen.
Wenn Sie ein CDN verwenden, stellen Sie sicher, dass es einer Suchmaschine ermöglicht, auf dieselben Inhalte und Informationen zuzugreifen, die Benutzer sehen, und stellen Sie sicher, dass es nichts gibt, was eine Suchmaschine als irreführend interpretieren könnte.
Hacker haben Exploits auf gängigen CMS verwendet, um den Datenverkehr auf nicht ethisch einwandfreie Websites von Drittanbietern zu lenken. Ein Beispiel ist der WordPress-Pharma-Hack, der Cloaking verwendete, um pharmazeutisch bezogene Inhalte für Suchmaschinen zu präsentieren, diese Inhalte jedoch vor dem Webmaster zu verbergen.
Stellen Sie sicher, dass Ihre CMS-, Webserver- und Betriebssystemsoftware die neuesten Versionen ausführen und dass sie gesichert wurden. Einige der häufigsten Exploits sind schlechte Passwörter, unsichere Software oder Skripte, verärgerte Mitarbeiter und Social-Engineering-Tricks.
HTTP-Header senden zusätzliche Informationen über die angeforderte Seite an den Suchmaschinen-Spider oder Webbrowser. Beispielsweise der Status der Seite, Cache-/Ablaufinformationen, Weiterleitungsinformationen usw.
Das Senden unterschiedlicher Header an eine Suchmaschine zum Zwecke der Täuschung kann zu einer Strafe führen. Beispielsweise wird es nicht funktionieren, guten Inhalt auf einer hochrangigen Seite durch ein Anmeldeformular zu ersetzen und die Ablauf- und/oder Cache-Kontroll-Header zu ändern, um Suchmaschinen dazu zu bringen, die hochrangige Version mit dem guten Inhalt beizubehalten.
Der Googlebot kann den Inhalt unabhängig von den Ablauf- und Cache-Kontroll-Headern regelmäßig herunterladen, um zu überprüfen, ob sich der Inhalt tatsächlich nicht geändert hat.
Sie können den Status Ihrer Server-Antwort-Header mit einem unserer kostenlosen SEO-Tools überprüfen.
Um Google zu zitieren:
„Doorway Pages sind in der Regel große Sätze von Seiten schlechter Qualität, bei denen jede Seite für ein bestimmtes Schlüsselwort oder einen bestimmten Satz optimiert ist. In vielen Fällen werden Doorway-Pages geschrieben, um für eine bestimmte Phrase zu ranken und die Benutzer dann zu einem einzigen Ziel zu leiten.“
Quelle: http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=66355
Matt Cutts schimpft hier über Doorway-Pages.
Mit multivariaten Testtools wie dem Google Website-Optimierungstool können Sie die Effektivität Ihrer Website verbessern, indem Sie Änderungen an Ihrem Website-Inhalt und -Design testen, um die Konversionsraten (oder andere wichtige gemessene Messwerte) zu verbessern.
Multivariate Tests sind jedoch eine ethische Verwendung von Cloaking, erklärt Google:
„Wenn wir eine Website finden, auf der eine einzelne nicht originale Kombination mehrere Monate lang zu 100 % ausgeführt wird, oder wenn die Originalseite einer Website mit Schlüsselwörtern geladen wird, die sich nicht auf die den Besuchern angezeigten Kombinationen beziehen, können wir diese Website entfernen aus unserem Index“.
Nicht unbedingt Cloaking-Spam per se, sondern eine Bait-and-Switch-Technik, die 301 nicht verwandte Domains (normalerweise Domains, die zum Verkauf stehen oder abgelaufen sind, aber noch PageRank oder signifikante externe Links haben) auf eine bösartige oder nicht verwandte Domain zu einem völlig anderen Thema umleitet .https://www.youtube.com/watch?v=70LR8H8pn1Mhttps://searchengineland.com/do-links-from-expired-domains-count-with-google-17811
Dies ist für Benutzer irreführend, da sie möglicherweise eine andere Website erwarten und möglicherweise nicht verwandten Ankertext an Ihre Domain weitergeben.
Erwarten Sie auch keine Anerkennung für die Registrierung abgelaufener Domains mit externen Links in der Hoffnung auf einen PR- oder Link-Boost.
In der Vergangenheit hatten Suchmaschinen Probleme damit, Flash-Inhalte effektiv zu interpretieren und zu indizieren, aber sie werden immer besser.
Webmaster mussten Benutzer und Suchmaschinen berücksichtigen, die keine Flash-fähigen Browser hatten und entweder eine Standard-HTML-Website „hinter den Kulissen“ für Suchmaschinen erstellten, ein <noscript>-Tag, JavaScript oder eine ähnliche Methode verwendeten, um ihre Textinhalte indizieren zu lassen. Leider kann dies von Suchmaschinen versehentlich als Cloaking erkannt werden, wenn der aus dem Flash-Inhalt indexierte Inhalt nicht mit dem Textinhalt übereinstimmt.
Aus SEO-Sicht ist es immer noch keine gute Idee, eine ganze Website in Flash zu erstellen. Wenn Sie jedoch einige Flash-Inhalte haben, sollten Sie SWFObject oder eine ähnliche Technik implementieren, um sicherzustellen, dass Flash sowohl für Benutzer als auch für Suchmaschinen ordnungsgemäß abgebaut wird.
Popover-Divs und Werbung allein tarnen nicht. Wenn die Interstitial-Anzeigen oder Popover-Divs nicht geschlossen werden können (z. B. wenn sich der Benutzer nicht registriert), präsentieren Sie möglicherweise Inhalt für die Suchmaschinen und ein Anmeldeformular für Ihre Benutzer.
Stellen Sie sicher, dass Benutzer Interstitial-Anzeigen, Pop-ups, Popovers, überlagerte Divs, Leuchtkästen usw. schließen oder überspringen und die verfügbaren Inhalte anzeigen können
AJAX (Asynchronous JavaScript And XML) ist eine Form von JavaScript, die es einer Webseite ermöglicht, dynamische Inhalte von einem Server abzurufen, ohne eine Seite neu zu laden. Es ist in den letzten Jahren sehr populär geworden und wird in vielen Web 2.0-Anwendungen oft (über)verwendet.
AJAX kann auf irreführende Weise verwendet werden, um einem Benutzer und einer Suchmaschine unterschiedliche Inhalte zu präsentieren – tun Sie es nicht.
Darüber hinaus sieht die andere Seite der Medaille bei einem „negativen Cloaking“-Ansatz möglicherweise der Benutzer den Inhalt, eine Suchmaschine jedoch nicht, da sie die JavaScript-Aufrufe nicht ausführen kann, die den dynamischen Inhalt vom Server abrufen. Etwas zu überprüfen.
Viele der in diesem Artikel beschriebenen Techniken können in einem vergeblichen Versuch, die Suchmaschinen zu betrügen, kombiniert, gehackt oder manipuliert werden.
Ein solches Beispiel ist die Kombination von JavaScript und Cookies, um Inhalte zu verschleiern. Wenn die JavaScript-Funktion ein Cookie nicht schreiben oder lesen kann (z. B. ein Suchmaschinen-Spider), dann zeigen Sie andere Inhalte an als einem Standardbenutzer mit aktivierten Cookies. Es gibt auch ein paar JQuery-Skriptbeispiele, die es einer skrupellosen Person ermöglichen, dies zu tun.
Link-Cloaking bezieht sich darauf, einen Benutzer mithilfe einer Weiterleitung in irgendeiner Form zu einer anderen URL als der, auf die er geklickt hat, zu schicken. Wie wir oben gesehen haben, können Umleitungen für Gutes und Schlechtes verwendet werden. Link Cloaking wird häufig zu Analyse- oder Wartungszwecken verwendet. Dafür gibt es eine Reihe praktischer Gründe, zum Beispiel:
- Um einen Link zu einem Partner innerhalb einer syndizierten PDF-Datei oder Anwendung aufrechtzuerhalten. Verwenden Sie eine ähnliche Vanity-URL und Weiterleitung oben, um sicherzustellen, dass Sie die Weiterleitung auf der Vanity-URL aktualisieren können, wenn der Partner seine URL-Struktur aktualisiert, und somit sicherstellen, dass die Links in eBook- und syndizierten Inhalten weiterhin funktionieren
- Vanity-URLs, die in Marketing- und Werbematerial verwendet werden und leichter zu merken sind als die Standardversion der URL
Natürlich kann dies dazu verwendet werden, irrezuführen und zu täuschen, wie z. B. einen Affiliate-Link zu tarnen (z. B. den Link durch http://mysite.com/vanity-url zu ersetzen und diesen auf http://affiliate.com/offer.html umzuleiten ?=mein-Affiliate-Code).
Ändern des Ankertexts oder der Linkattribute mit JavaScript oder einem ähnlichen Mechanismus, um Benutzer zu täuschen oder zu täuschen. Dies ist eine Form des Cloaking, bei der nur eine kleine Komponente der Seite modifiziert wird, um einen Benutzer zu täuschen.
- Hijacking des onClick-Ereignisses, um einen Benutzer zu einer anderen URL an die Suchmaschinen zu senden
- Hinzufügen eines rel="nofollow"-Attributs zu Links, die Suchmaschinen angezeigt werden, und Entfernen aus dem Code, der den Benutzern angezeigt wird
- Ändern des Ankertexts von Links, um Schlüsselwörter in den an Suchmaschinen gesendeten Ankertext aufzunehmen und den Benutzern etwas anderes anzuzeigen
Vermeiden Sie Link-Hijacking, um Benutzer zu täuschen, da dies zu Suchmaschinenstrafen oder zum Sperren Ihrer Website führen kann.
Es gibt ethische Formen dieser Technik, um sicherzustellen, dass sowohl Benutzer als auch Suchmaschinen Ihre AJAX-Inhalte mit HiJAX sehen können, wie im Google-Blog empfohlen.
Das Ausblenden von Text verstößt gegen die Nutzungsbedingungen und Webmaster-Richtlinien von Google. Es ist eine Form der Tarnung, da eine Suchmaschine den Textinhalt sehen kann, ein Benutzer jedoch nicht. Vermeiden Sie die folgenden Arten von verstecktem Text:
- Nicht erkennbarer Text auf Hintergrund (z. B. dunkelgrau auf schwarz)
- Schriftgröße auf 0 setzen
- Gestalten Sie Keyword-Rich-Anchor-Text wie Standardtext, damit Benutzer nicht erkennen, dass es sich um einen Link handelt
- CSS-Anzeige (Cascading Style Sheets): keine
- Text hinter Bildern. Immer ein heikles Thema und oft Gegenstand von Diskussionen unter SEOs. Wenn der Text hinter dem Bild eine genaue und faire Darstellung eines Bildes ist (z. B. eine Kopfzeile mit einer benutzerdefinierten Schriftart), sollten Sie Matt Cutts zitieren. Die endgültige Lösung hängt von Ihren speziellen Umständen ab, sehen Sie sich jedoch diese Ressourcen an, um eine Anleitung zu erhalten: W3C: Using CSS to replace text with images , Farner Image Replacement (FIR) , Scalable Inman Flash Replacement (sIFR) (Bitte beachten Sie, dass durch sIFR ersetzter Text ggf werden seit Dezember 2010 nicht mehr in Google Preview angezeigt.)
Wenn Ihnen Suchmaschinen-Traffic wichtig ist, beachten Sie beim Cloaking unbedingt Folgendes:
- Stellen Sie sicher, dass Sie mit den offensichtlichen und nicht so offensichtlichen Formen des Cloaking oben vertraut sind und wissen, wie diese auf Ihrer Website verwendet werden, um mögliche Strafen zu vermeiden.
- Wenn Sie eine Art Cloaking implementieren, stellen Sie sicher, dass dies aus SEO-Perspektive ordnungsgemäß überprüft wird, um potenzielle Strafen zu vermeiden.