Techniki maskowania SEO, których należy unikać w 2011 r.
Opublikowany: 2011-01-27Szef działu Google Web Spam, Matt Cutts, pod koniec 2010 roku oderwał się od Ozziego i Emmy (The Matt Cutts „Catts”), aby zamieścić na Twitterze małą ciekawostkę dla webmasterów i SEO, którą z pewnością dodałem do kaca za kilka czarnych kapeluszy w okresie świątecznym.
Google [przyjrzy się] bardziej maskowaniu w pierwszym kwartale 2011 r. Nie tylko zawartość strony ma znaczenie; unikaj różnych nagłówków/przekierowań do Googlebota zamiast do użytkowników.
Maskowanie to technika wykorzystywana do prezentowania innej treści, układu, funkcjonalności lub nagłówków (całkowicie odmiennej strony lub jej części składowych, znanej jako maskowanie mozaikowe) pająkowi wyszukiwarek niż przeglądarce internetowej użytkownika.
Etyczne maskowanie nie jest „czarnym kapeluszem”, jednak w przeszłości spamerzy wykorzystywali metody manipulowania technikami maskowania, dla jasności nazwijmy to maskowaniem-spamem, aby oszukać algorytm (Google). To nie jest nowe zjawisko. Na początku metatag słów kluczowych był nadużywany przez spamerów iw rezultacie nie jest już czynnikiem rankingowym, a tag <noscript> również może być traktowany z pewną podejrzliwością, ponieważ był również nadużywany w przeszłości (być może powinniśmy otworzyć schronienie dla nadużywanych elementów HTML….)
Po pierwsze, powiem, że jeśli to w ogóle możliwe, UNIKAJ MASKOWANIA. Maskowanie to ćwiczenie obarczone wysokim ryzykiem, które, jeśli musi zostać wdrożone, powinno być wykonywane w odpowiedni sposób etyczny, zgodnie ze wskazówkami Google dla webmasterów, aby mieć pewność, że Twoja witryna nie zostanie ukarana ani usunięta z indeksu.
Niestety, niektórzy webmasterzy mogą nie rozumieć konsekwencji i nieumyślnie maskować treści, linki lub całe witryny, nawet nie zdając sobie z tego sprawy. W tym artykule opisano niektóre z typowych funkcji dostępnych w witrynie, które mogą być (błędnie) interpretowane jako maskowanie spamu.
Należy pamiętać, że Google aktywnie bada przypadki maskowania spamu i blokuje witryny internetowe w ich indeksie. Śledzą też wykrywanie maskowania i nienaturalnych linków, wysyłając powiadomienia webmasterom za pośrednictwem Narzędzi dla webmasterów. Google jest teraz coraz lepszy w wykrywaniu maskowania spamu algorytmicznie, nawet dostarczanie adresów IP nie jest nieomylne i oczywiście Google zawsze zachęca konkurencję do korzystania z raportu o spamie, jeśli wykryje coś podejrzanego na Twojej stronie.
Identyfikowanie maskowania spamu algorytmicznie wymaga, aby wyszukiwarka porównała pojedynczą stronę internetową uzyskaną za pomocą co najmniej dwóch mechanizmów (na przykład co najmniej dwóch zakresów adresów IP, identyfikatorów klienta użytkownika lub różnych poziomów funkcjonalności HTML/JavaScript). Microsoft ma patent zgłoszony pod koniec 2006 roku na system, który ułatwia wykrywanie zamaskowanej strony internetowej.
Oczywiście prowadzi to do pytania, w jaki sposób wyszukiwarka mogłaby zebrać i przeanalizować dwa przykłady strony internetowej w celu porównania? Niektóre metody mogą obejmować:
- Częściowe zróżnicowanie treści, wykorzystanie analizy tematu treści, segmentacja stron, utajona analiza semantyczna (LSA), użycie słów kluczowych, linki na stronie i inne czynniki na stronie
- Różne adresy IP/oddzielne zakresy adresów IP lub serwery proxy do analizy spamu internetowego
- Różne klienty użytkownika (na przykład użyj klienta użytkownika przeglądarki, aby sprawdzić zamaskowaną zawartość)
- Zgłoszenia spamu od społeczności webmasterów
- Testowanie użytkownika
- Analiza ponad 5 połączonych przekierowań w celu sprawdzenia maskowania (być może ograniczenie indeksacji i przepływu PageRank, autorytetu, zaufania itp. przez 5 połączonych przekierowań)
- Ulepszona interpretacja kodu JavaScript (w szczególności ocena złożonych i/lub zakodowanych funkcji JavaScript zawierających linki lub przekierowania)
- Mechanizm akceptowania plików cookie (potencjalnie w połączeniu z powyższą analizą JavaScript i przekierowań)
Oczywiście gromadzenie danych można zlecić oddzielnej firmie, aby uniknąć problemu dostarczania IP
Istnieją przypadki, w których firma może chcieć przekazać swoim użytkownikom inne lub dodatkowe informacje. Na przykład:
- Kierowanie geograficzne
- Zalogowani użytkownicy (dostosowana strona główna itp.)
- Śledzenie odesłań — na przykład dostarczanie informacji zwrotnej użytkownikowi na podstawie jego zapytania w wyszukiwarce, np. wyróżnianie słów na stronie, które pasują do zapytania
- Maskowanie urządzeń dla telefonów komórkowych i urządzeń dotykowych
- Optymalizacja pod kątem określonych przeglądarek lub kompatybilność wsteczna
- Optymalizacja wyświetlania (chociaż zazwyczaj można to kontrolować za pomocą CSS)
- Pierwsze kliknięcie za darmo – Lub pierwsze pięć kliknięć za darmo
- Testy A/B lub wielowymiarowe
- Próżne adresy URL (maskowanie linków)
- Wyświetl weryfikację wieku (www.bacardi.com wykorzystuje kombinację wykrywania klienta użytkownika i plików cookie do wyświetlania użytkownikom strony powitalnej weryfikacji wieku, ale umożliwia wyszukiwarkom dostęp do witryny. Mimo że Google ma dopiero 14 lat)
- Równoważenie obciążenia
- Wymiana czcionek (za pomocą technologii takich jak sIFR lub Cufon) – Uwaga: maj, ale nie optymalna dla Google Preview (stan na grudzień 2010 r.)
- SWFOobiekt
Upewnij się, że bierzesz pod uwagę konsekwencje dla SEO podczas korzystania z którejkolwiek z wyżej wymienionych metod lub funkcji, ponieważ błędna konfiguracja może skutkować maskowaniem spamu lub może nie być optymalna dla SEO.
Ok, więc to nie jest samouczek dotyczący maskowania; jest to „lista maskowania i spamu 2011”, a przynajmniej wskazówki dotyczące technik, których należy unikać lub problemów do naprawienia na początku 2011 roku.
Niektóre formy maskowania są celowe (takie jak dostarczanie IP lub maskowanie agenta użytkownika), jednak wiele form maskowania-spamu może być przypadkowych. Przypadkowe rodzaje spamu polegającego na maskowaniu, które przypadkowo powodują zablokowanie Cię w Google, są najbardziej niepokojące, ponieważ webmaster może nie być świadomy tego problemu. Nawet duże firmy czasami się mylą.
Poniżej zbadamy niektóre z najczęstszych technik maskowania spamu , aby edukować i upewnić się, że webmasterzy i SEO mogą upewnić się, że nie mają ich w swojej witrynie.
Webmasterzy zwykle ukrywają treści pochodzące od użytkowników lub wyszukiwarek na trzy sposoby:
- Dostawa IP
- Analiza klienta użytkownika (możesz sprawdzić maskowanie klienta użytkownika za pomocą bezpłatnego narzędzia do sprawdzania maskowania SEO firmy Bruce Clay.
- Wykorzystywanie znanych zachowań wyszukiwarek, takich jak wykonywanie kodu JavaScript lub przekierowań oraz indeksacja lub zdolność pająka różnych elementów HTML
Dostarczanie różnych treści na podstawie adresu IP żądającej przeglądarki internetowej lub pająka wyszukiwarki. [Dostarczanie IP jest omówione bardziej szczegółowo tutaj.]
Odwróć DNS i przekaż DNS
Wyszukiwanie wstecznego i do przodu DNS nie jest formą maskowania, ale może być używane do sprawdzania rekordów DNS żądającego adresu IP. Google podaje szczegółowe informacje o tym, jak zweryfikować, za kogo się podaje, że Googlebot jest tym, za kogo się podaje.
Dostarczanie różnych treści w oparciu o klienta użytkownika żądającej przeglądarki internetowej lub pająka wyszukiwarki. Na przykład Googlebot/2.1 (+http://www.google.com/bot.html) lub Mozilla/5.0 (Windows; U; MSIE 7.0; Windows NT 6.0; en-US)
Google może indeksować stronę zawierającą JavaScript, ale może nie stosować się do przekierowania JavaScript, jednak widzimy znaczną poprawę w interpretacji kodu JavaScript przez Google (na przykład >Generator podglądu Google renderuje JavaScript, AJAX, CSS3, ramki i ramki iframe).
Webmasterzy czasami używają przekierowań JavaScript, gdy nie mogą zaimplementować przekierowania po stronie serwera, nieumyślnie zostawiając Googlebota na pierwszej stronie i wysyłając przeglądarkę (która następuje po przekierowaniu JavaScript) na drugą stronę zawierającą inną treść, przez co jest oznaczana jako maskująca spam.
Zwróć uwagę na następujący kod:
<script type="text/javascript"> window.location="http://www.twojawitryna.com/second-page.html" </script>
Tag dodany do sekcji head na stronie HTML w celu przekierowania użytkowników na inną stronę po określonym czasie. Metatag odświeżania nie jest uważany za maskowanie, gdy jest używany samodzielnie, ale może być łączony z JavaScript, ramkami lub innymi technikami w celu przesłania użytkownika na inną stronę do robotów wyszukiwarek.
Zwróć uwagę na następujący kod:
<meta http-equiv="odśwież" content="0;url=http://www.twojawitryna.com/druga-strona.html">
Podwójne/wielokrotne odświeżenia meta lub maskowanie strony odsyłającej
Wiele metaodświeżeń może być użytych do ukrycia strony odsyłającej z witryn stowarzyszonych. Unikaj łączenia wielu przekierowań wszelkiego rodzaju, ponieważ może to mieć negatywny wpływ na SEO, a nawet może być sprzeczne z warunkami świadczenia usług (TOS) Twoich partnerów afiliacyjnych
Metaodświeżanie w JavaScript lub tagu <noscript>
OK, teraz wchodzimy w sferę „czarnego kapelusza”. Jest mało prawdopodobne, że webmaster połączyłby metaodświeżanie z JavaScriptem, chyba że nie były one dobre.
Jest to łatwe do wykrycia przez wyszukiwarkę. Nie rób tego.
Wyszukiwarki mogą nie stosować wielu połączonych przekierowań (zgodnie z wytycznymi w specyfikacji HTML zalecana liczba została ustawiona na 5 przekierowań). Google może śledzić około 5 połączonych przekierowań. Przeglądarki internetowe mogą śledzić więcej.
Wiele przekierowań „back-to-back” (szczególnie połączenie różnych typów przekierowań 301, 302, metaodświeżanie, JavaScript itp.) wpływa na czas ładowania strony, może wpływać na przepływ PageRank (nawet przekierowania 301 mogą powodować pewien spadek PageRank) i mogą być uważane za maskowanie- spam.
Nie mogłem znaleźć żadnych danych o tym, ile przekierowań wykona przeglądarka, więc stworzyłem szybki skrypt połączonych przekierowań, aby przetestować niektóre przeglądarki zainstalowane na moim komputerze i podać statystyki dotyczące przybliżonej liczby przekierowań (według typu przekierowania) . Ograniczyłem skrypt do maksymalnie 5000 połączonych przekierowań.
Przeglądarka internetowa | Wersja | Około # z 301 przekierowań | Około # z 302 przekierowań | Około # przekierowań Meta Refresh | Około liczba przekierowań JavaScript |
Google Chrome | 8.0.552.224 | 21 | 21 | 21 | Większe niż 5000 (nieznany limit) |
Internet Explorer | 8.0.6001.18702IC | 11 | 11 | Większe niż 5000 (nieznany limit) | Większe niż 5000 (nieznany limit) |
Mozilla Firefox | 3.5.16 | 20 | 20 | 20 | Większe niż 3000 (nieznany limit, ponieważ przeglądarka zatrzymała się po przekierowaniach 3000 JS) |
Safari | 3.1.2 (525.21) | 16 | 16 | Większe niż 5000 (nieznany limit) | Większe niż 5000 (nieznany limit) |
Podczas pisania skryptu pomyśleliśmy, że przeprowadzimy dodatkowy test i prześlemy adres URL przekierowania do Google. Zamieściliśmy również link do skryptu z Twittera. Wyniki znajdują się w poniższej tabeli.
Wyszukiwarka | Adres IP hosta agenta użytkownika | Około # z 301 przekierowań obserwowanych |
Microsoft *Założono na podstawie zakresu adresów IP Mozilla/4.0 (zgodna; MSIE 7.0; Windows NT 6.0) | 65.52.17.79 | 25 |
Google Mozilla/5.0 (zgodna; Googlebot/2.1; +http://www.google.com/bot.html) | 66.249.68.249 | 5 |
Wieśniak Mozilla/5.0 (kompatybilna; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp) | 67.195.111.225 | 4 |
Świergot Twitterbot/0.1 | 128.242.241.94 | 3 |
LinkedIn LinkedInBot/1.0 (zgodny; Mozilla/5.0; Jakarta Commons-HttpClient/3.1 + http://www.linkedin.com) | 216.52.242.14 | 1 |
PostRank PostRank/2.0 (postrank.com) | 204.236.206.79 | 0 |
Chociaż w tym przypadku Googlebot zindeksował tylko 5 stałych przekierowań, można założyć, że Google może wdrożyć weryfikację opartą na indeksowaniu w celu przetestowania przekierowań przekraczających limit 5 przekierowań w podobny sposób, jak firma Microsoft, która śledzi około 25 połączonych przekierowań. Uwaga: założyliśmy, że jest to adres IP należący do firmy Microsoft na podstawie informacji o adresie IP Whois z Narzędzi domen.

Ramki umożliwiają webmasterowi osadzenie innego dokumentu na stronie HTML. Wyszukiwarki tradycyjnie nie radziły sobie dobrze z przypisywaniem treści w ramkach do strony nadrzędnej, umożliwiając webmasterowi uniemożliwienie wyszukiwarkom wyświetlenia części lub całości treści na stronie.
Ramki i iFrame to legalne elementy HTML (chociaż często nie są to najlepsze praktyki z punktu widzenia SEO), jednak można je również łączyć z innymi technikami w celu oszukania użytkowników.
Ramki z przekierowaniem JavaScript
Osadzenie ramki z przekierowaniem JavaScript może pozostawić roboty wyszukiwarek na pierwszej stronie i podstępnie przekierować użytkowników z włączoną obsługą JavaScript na drugą „ukrytą” stronę.
Nie mogę wymyślić uzasadnionego „białego kapelusza” powodu, dla którego miałbyś to użyć. Może to skutkować karą lub banem. Sprawdź kod źródłowy swoich dokumentów w ramkach, usuń ten kod lub zaimplementuj odpowiednie przekierowanie przyjazne SEO.
Znacznik <noscript> został zaprojektowany w celu zapewnienia odpowiednika treści JavaScript w języku innym niż JavaScript, aby przeglądarki i wyszukiwarki zawierające wyłącznie tekst mogły interpretować bardziej zaawansowane formy treści. Tag <noscript> może być traktowany z pewną podejrzliwością, ponieważ był w przeszłości nadużywany przez spamerów.
Zbuduj funkcjonalność JavaScript/AJAX z myślą o progresywnym ulepszaniu, tak aby treść była odpowiednia dla wszystkich użytkowników i nie wymagała użycia tagu <noscript>. Jeśli Twoja witryna używa tagu <noscript> i nie możesz zaktualizować kodu, upewnij się, że każdy tekst, linki i obrazy w tagu <noscript> dokładnie opisują zawartość JavaScript, AJAX lub Flash, którą reprezentuje, w sposób dokładny, jasny i zwięzły sposób.
Jeśli obraźliwa strona lub witryna ma problemy z indeksacją, rozważ zmianę kodu <noscript> w ramach dokładnego audytu SEO witryny.
Sieci dostarczania treści (CDN) umożliwiają firmom dystrybucję ich statycznej zawartości w wielu lokalizacjach geograficznych w celu poprawy wydajności dla użytkowników końcowych. W zależności od konfiguracji CDN istnieje wiele sposobów kierowania żądania klienta do najlepszego dostępnego źródła w celu obsługi treści. Sieci CDN to złożony obszar, zwykle wdrażany przez globalne firmy, które muszą obsługiwać treści użytkowników w jak najkrótszym czasie.
Jeśli korzystasz z sieci CDN, upewnij się, że umożliwia ona wyszukiwarce dostęp do tych samych treści i informacji, które widzą użytkownicy, i upewnij się, że nie ma niczego, co wyszukiwarka mogłaby błędnie zinterpretować jako oszukańcze.
Hakerzy wykorzystywali exploity w popularnych systemach CMS, aby kierować ruch do mniej etycznych witryn internetowych stron trzecich. Jednym z przykładów jest WordPress Pharma Hack, który wykorzystywał maskowanie do prezentowania treści związanych z farmaceutykami w wyszukiwarkach, ale ukrywał je przed webmasterem.
Upewnij się, że Twój system CMS, serwer WWW i oprogramowanie systemu operacyjnego mają najnowsze wersje i są zabezpieczone. Niektóre z najczęstszych exploitów to słabe hasła, niezabezpieczone oprogramowanie lub skrypty, niezadowoleni pracownicy i sztuczki socjotechniczne.
Nagłówki HTTP wysyłają dodatkowe informacje o żądanej stronie do pająka wyszukiwarki lub przeglądarki internetowej. Na przykład stan strony, informacje w pamięci podręcznej / informacje o wygaśnięciu, informacje o przekierowaniu itp.
Wysyłanie różnych nagłówków do wyszukiwarki w celu oszukania może skutkować karą. Na przykład zastąpienie dobrej treści na stronie o wysokim rankingu formularzem rejestracji i zmiana nagłówków kontroli wygaśnięcia i/lub pamięci podręcznej w celu oszukania wyszukiwarek, aby utrzymywały wersję o wysokiej pozycji z dobrą treścią, nie zadziała.
Googlebot może okresowo pobierać zawartość niezależnie od nagłówków kontroli wygaśnięcia i pamięci podręcznej, aby sprawdzić, czy zawartość rzeczywiście nie uległa zmianie.
Możesz sprawdzić stan nagłówków odpowiedzi serwera za pomocą jednego z naszych bezpłatnych narzędzi SEO.
Cytując Google:
„Strony przejściowe to zazwyczaj duże zestawy stron o niskiej jakości, na których każda strona jest zoptymalizowana pod kątem określonego słowa kluczowego lub wyrażenia. W wielu przypadkach strony przejściowe są tworzone w celu uszeregowania pod kątem określonej frazy, a następnie kierowania użytkowników do jednego miejsca docelowego”.
Źródło: http://www.google.com/support/webmasters/bin/answer.py?hl=pl&answer=66355
Matt Cutts ma tutaj przemowę o stronach Doorway.
Narzędzia do testowania na wielu odmianach, takie jak Optymalizator witryny Google, umożliwiają poprawę efektywności witryny poprzez testowanie zmian w treści i projekcie witryny w celu poprawy współczynników konwersji (lub innych ważnych mierzonych wskaźników).
Testy na wielu odmianach to etyczne wykorzystanie maskowania, jednak Google stwierdza:
„jeśli znajdziemy witrynę, w której przez kilka miesięcy działa pojedyncza nieoryginalna kombinacja w 100% lub jeśli oryginalna strona witryny jest załadowana słowami kluczowymi, które nie mają związku z kombinacjami wyświetlanymi odwiedzającym, możemy usunąć tę witrynę z naszego indeksu”.
Niekoniecznie maskowanie-spam per se, ale technika przynęty i zmiany, która przekierowuje niepowiązane domeny (zwykle domeny, które są na sprzedaż lub wygasły, ale nadal mają PageRank lub znaczące linki zewnętrzne) do złośliwej lub niepowiązanej domeny na zupełnie inny temat .https://www.youtube.com/watch?v=70LR8H8pn1Mhttps://searchengineland.com/do-links-from-expired-domains-count-with-google-17811
Jest to mylące dla użytkowników, ponieważ mogą spodziewać się innej witryny i mogą przekazywać niepowiązany tekst kotwicy do Twojej domeny.
Nie oczekuj również kredytu za rejestrację wygasłych domen z linkami zewnętrznymi w nadziei na PR lub zwiększenie linków.
W przeszłości wyszukiwarki miały problemy z efektywną interpretacją i indeksowaniem treści Flash, ale cały czas stają się coraz lepsze.
Webmasterzy musieli wziąć pod uwagę użytkowników i wyszukiwarki, które nie miały przeglądarek z obsługą Flasha i albo zbudowali standardową witrynę HTML „za kulisami” dla wyszukiwarek, użyli tagu <noscript>, JavaScript lub podobnej metody, aby zindeksować swoją treść tekstową. Niestety, może to zostać nieumyślnie zidentyfikowane przez wyszukiwarki jako maskowanie, jeśli zawartość zindeksowana z zawartości Flash nie jest zgodna z zawartością tekstową.
Budowanie całej witryny we Flashu nadal nie jest dobrym pomysłem z punktu widzenia SEO, jednak jeśli masz jakieś treści Flash, rozważ wdrożenie SWFObject lub podobnej techniki, aby zapewnić, że Flash będzie się degradował z wdziękiem zarówno dla użytkowników, jak i wyszukiwarek.
Same popovery i reklamy nie są maskowaniem. Jeśli nie można zamknąć reklam pełnoekranowych lub elementów typu popover (na przykład, jeśli użytkownik się nie zarejestruje), możesz prezentować treść wyszukiwarkom i formularz rejestracji użytkownikom.
Upewnij się, że użytkownicy mogą zamykać lub pomijać reklamy pełnoekranowe, wyskakujące okienka, popovery, nałożone elementy div, lightboxy itp. oraz przeglądać dostępne treści
AJAX (Asynchronous JavaScript And XML) to forma JavaScript, która umożliwia stronie internetowej pobieranie dynamicznej zawartości z serwera bez ponownego ładowania strony. Stał się bardzo popularny w ciągu ostatnich kilku lat i jest często (nadmiernie) używany w wielu aplikacjach Web 2.0.
AJAX może być użyty w zwodniczy sposób do prezentowania różnych treści użytkownikowi i wyszukiwarce – Don't.
Ponadto, druga strona medalu, w podejściu „negatywnego maskowania”, użytkownik może zobaczyć zawartość, ale wyszukiwarka nie, ponieważ nie może wykonać wywołań JavaScript, które pobierają dynamiczną zawartość z serwera. Coś do sprawdzenia.
Wiele technik opisanych w tym artykule można łączyć, posiekać lub manipulować w daremnej próbie oszukania wyszukiwarek.
Jednym z takich przykładów jest łączenie JavaScript i plików cookie w celu ukrycia treści. Jeśli funkcja JavaScript nie może zapisać ani odczytać pliku cookie (takiego jak pająk wyszukiwarki), wyświetlaj inną treść niż standardowemu użytkownikowi z włączonymi plikami cookie. Istnieje również kilka przykładów skryptów JQuery, które pozwolą to zrobić osobie pozbawionej skrupułów.
Maskowanie linków odnosi się do wysyłania użytkownika pod inny adres URL niż ten, na który kliknął za pomocą przekierowania w jakiejś formie. Przekierowania mogą być używane na dobre i na złe, jak widzieliśmy powyżej. Maskowanie linków jest często używane do celów analitycznych lub konserwacyjnych. Istnieje kilka praktycznych powodów, aby to zrobić, na przykład:
- Utrzymywanie łącza do podmiotu stowarzyszonego w syndykowanym pliku PDF lub aplikacji. Używając podobnego skróconego adresu URL i przekierowania powyżej, aby upewnić się, że jeśli partner zaktualizuje strukturę adresu URL, możesz zaktualizować przekierowanie w skróconym adresie URL, a tym samym upewnić się, że linki w eBooku i treściach syndykowanych nadal działają
- Próżne adresy URL używane w materiałach marketingowych i reklamowych, które są łatwiejsze do zapamiętania niż standardowa wersja adresu URL
Oczywiście może to być wykorzystywane do wprowadzania w błąd i oszukiwania, na przykład do ukrywania linku partnerskiego (np. zamiana linku na http://mysite.com/vanity-url i przekierowanie go na http://affiliate.com/offer.html ?=mój-kod-afiliacyjny).
Modyfikowanie tekstu kotwicy lub atrybutów linku za pomocą JavaScript lub podobnego mechanizmu w celu oszukania lub oszukania użytkowników. Jest to forma maskowania, która modyfikuje tylko niewielki element strony, aby oszukać użytkownika.
- Przejęcie zdarzenia onClick w celu wysłania użytkownika pod inny adres URL do wyszukiwarek
- Dodanie atrybutu rel="nofollow" do linków wyświetlanych wyszukiwarkom i usunięcie go z kodu wyświetlanego użytkownikom
- Modyfikowanie tekstu kotwicy linków, aby zawierał słowa kluczowe w tekście kotwicy wysyłanym do wyszukiwarek i wyświetlało coś innego użytkownikom
Unikaj przejmowania linków w celu oszukania użytkowników, ponieważ może to skutkować karami dla wyszukiwarek lub zablokowaniem witryny.
Istnieją etyczne formy tej techniki, które zapewniają, że zarówno użytkownicy, jak i wyszukiwarki mogą zobaczyć zawartość AJAX przy użyciu HiJAX, zgodnie z zaleceniami na blogu Google.
Ukrywanie tekstu jest niezgodne z TOS i wskazówkami dla webmasterów Google. Jest to forma maskowania, ponieważ wyszukiwarka może zobaczyć treść tekstową, ale użytkownik nie. Unikaj następujących typów tekstu ukrytego:
- Niedostrzegalny tekst w tle (np. ciemnoszary na czarnym)
- Ustawienie rozmiaru czcionki na 0
- Stylizowanie tekstu zakotwiczenia w słowie kluczowym, tak jak w przypadku standardowego tekstu podstawowego, aby użytkownicy nie zdawali sobie sprawy, że jest to link
- Wyświetlanie kaskadowych arkuszy stylów (CSS): brak
- Tekst za obrazami. Zawsze trudny temat i często otwarty na debatę wśród SEO. Jeśli tekst za obrazem jest dokładnym i rzetelnym przedstawieniem obrazu (np. nagłówek z niestandardową czcionką), „powinno być dobrze”, cytując Matta Cuttsa. Ostateczne rozwiązanie będzie zależeć od konkretnych okoliczności, jednak sprawdź poniższe zasoby, aby uzyskać wskazówki: W3C: Używanie CSS do zastępowania tekstu obrazami , Farner Image Replacement (FIR) , Scalable Inman Flash Replacement (sIFR) (Należy pamiętać, że tekst zastąpiony sIFR może nie pojawiają się w Google Preview od grudnia 2010 r.)
Jeśli ruch w wyszukiwarkach jest dla Ciebie ważny, pamiętaj o następujących kwestiach dotyczących maskowania:
- Upewnij się, że znasz oczywiste i nieoczywiste formy maskowania powyżej i wiesz, w jaki sposób są one używane w Twojej witrynie, aby uniknąć potencjalnych kar.
- Jeśli wdrażasz jakąś formę maskowania, upewnij się, że jest ona odpowiednio sprawdzona z punktu widzenia SEO, aby uniknąć potencjalnych kar.