Tehnici de deghizare SEO de evitat în 2011
Publicat: 2011-01-27Șeful Google Web Spam, Matt Cutts, și-a luat timp de la Ozzie și Emmy (The Matt Cutts „Catts”) la sfârșitul anului 2010 pentru a posta o mică chestiune pentru webmasteri și SEO prin Twitter, pe care sunt sigur că l-a adăugat la mahmureală. pentru câteva pălării negre în perioada sărbătorilor.
Google va [uita] mai mult la demascare în T1 2011. Nu doar, conținutul paginii contează; evitați diferite antete/redirecționări către Googlebot în loc de utilizatori.
Cloaking este tehnica folosită pentru a prezenta diferite conținuturi, aspect, funcționalități sau anteturi (o pagină complet diferită sau componente parțiale ale paginii, cunoscute sub numele de Mosaic cloaking) unui spider motor de căutare decât browserului web al unui utilizator.
Demascarea etică nu este o „pălărie neagră”, totuși, în trecut, spammerii au folosit metode pentru a manipula tehnicile de demascare, pentru claritate, să ne referim la aceasta ca demascare-spam, pentru a juca algoritmul (Google). Acesta nu este un fenomen nou. La început, eticheta meta cuvinte cheie a fost abuzată de către spammeri și, ca urmare, acum nu mai este un factor de clasare, iar eticheta <noscript> poate fi, de asemenea, tratată cu o oarecare suspiciune, deoarece a fost și abuzată în trecut (poate că ar trebui să deschidem un refugiu pentru elementele HTML abuzate….)
În primul rând, permiteți-mi să spun că, dacă este deloc posibil, EVITAȚI ÎNCHIMAREA. Demascarea este un exercițiu cu risc ridicat care, dacă trebuie implementat, ar trebui făcut în mod etic adecvat, respectând Ghidurile Google pentru webmasteri, pentru a se asigura că site-ul dvs. nu este penalizat sau eliminat din index.
Din păcate, este posibil ca unii webmasteri să nu înțeleagă repercusiunile și să ascundă, din neatenție, conținut, link-uri sau site-uri web întregi fără să-și dea seama. Acest articol subliniază unele dintre funcționalitățile comune la fața locului care pot fi interpretate (greșit) ca spam-demascare.
Rețineți că Google investighează în mod activ cazurile de descuamare spam și interzice site-uri web din indexul lor. De asemenea, urmăresc detectarea descuirii și a linkurilor nenaturale cu notificări către webmasteri prin Instrumentele pentru webmasteri. Google devine din ce în ce mai bun în detectarea algoritmică a spam-ului de înveliș, chiar și livrarea IP nu este infailibilă și, desigur, Google încurajează întotdeauna concurența să folosească raportul de spam dacă detectează ceva neplăcut în pagina ta.
Identificarea cloaking-spam din punct de vedere algoritmic necesită ca un motor de căutare să compare o singură pagină web obținută prin două sau mai multe mecanisme (de exemplu, două sau mai multe intervale de IP, identificatori User-agent sau niveluri diferite de funcționalitate HTML/JavaScript). Microsoft are un brevet depus la sfârșitul anului 2006 care revendică un sistem care facilitează detectarea unei pagini web acoperite.
Desigur, acest lucru duce la întrebarea cum ar putea un motor de căutare să adune și să analizeze cele două exemple de pagină web pentru comparație? Unele metode pot include:
- Diferențierea parțială a conținutului, folosind analiza subiectelor de conținut, segmentarea paginii, analiza semantică latentă (LSA), utilizarea cuvintelor cheie, link-uri pe pagină și alți factori de pe pagină
- Adrese IP diferite/intervaluri IP separate sau proxy pentru a analiza spam-ul web
- Agenți de utilizator diferiți (de exemplu, utilizați un agent de utilizator de browser pentru a verifica conținutul acoperit)
- Rapoartele de spam de la comunitatea de webmasteri
- Testarea utilizatorului
- Analiza a mai mult de 5 redirecționări înlănțuite pentru a verifica existența demascării (poate limitând indexarea și fluxul de PageRank, autoritate, încredere etc., prin intermediul a 5 redirecționări înlănțuite)
- Interpretare îmbunătățită a codului JavaScript (evaluând în mod specific funcțiile JavaScript complexe și/sau codificate care conțin linkuri sau redirecționări)
- Mecanism de acceptare a modulelor cookie (potențial în legătură cu analiza JavaScript și redirecționarea de mai sus)
Desigur, colectarea datelor ar putea fi externalizată către o companie separată pentru a evita problema livrării IP
Există situații în care o companie poate dori să ofere informații diferite sau suplimentare utilizatorilor săi. De exemplu:
- Direcționare geografică
- Utilizatori autentificati (experienta personalizata a paginii de pornire etc.)
- Urmărirea recomandărilor – de exemplu, oferiți feedback utilizatorului pe baza interogării motorului de căutare, cum ar fi evidențierea cuvintelor dintr-o pagină care se potrivesc cu interogarea
- Mascarea dispozitivelor pentru telefoane mobile și dispozitive tactile
- Optimizare pentru anumite browsere sau pentru compatibilitate inversă
- Optimizarea afișajului (deși aceasta poate fi de obicei controlată prin CSS)
- Primul clic gratuit – Sau primele cinci clicuri gratuite
- Testare A/B sau multivariată
- Adrese URL vanitate (demascarea linkurilor)
- Afișează verificarea vârstei (www.bacardi.com folosește o combinație de detectare a agentului utilizator și module cookie pentru a afișa utilizatorilor o pagină de întâmpinare a verificării vârstei, dar permite motoarele de căutare să acceseze site-ul web. Chiar dacă Google are doar 14 ani)
- Echilibrarea sarcinii
- Înlocuirea fontului (prin tehnologie precum sIFR sau Cufon) – Notă: poate, dar nu este optim pentru Google Preview (din decembrie 2010)
- SWFObject
Asigurați-vă că luați în considerare implicațiile SEO atunci când utilizați oricare dintre metodele sau funcționalitățile menționate mai sus, deoarece configurarea greșită poate duce la dezvăluire-spam sau poate să nu fie optimă pentru SEO.
Bine, deci acesta nu este un tutorial despre cum să învelești; este o „listă fără spam din 2011” sau, cel puțin, o informare cu tehnici de evitat sau probleme de rezolvat la începutul anului 2011.
Unele forme de descuamare sunt deliberate (cum ar fi livrarea IP sau descuiarea agentului utilizator), cu toate acestea, multe forme de descuamare-spam pot fi accidentale. Tipurile accidentale de spam de acoperire care vă fac din neatenție interzis de la Google sunt de mare îngrijorare, deoarece webmasterul poate să nu fie conștient de problemă. Chiar și companiile mari greșesc uneori.
Vom investiga mai jos câteva dintre cele mai comune tehnici de cloaking-spam pentru a educa și a ne asigura că webmasterii și SEO-ii se pot asigura că nu le au pe site-ul lor.
Există, de obicei, trei moduri prin care webmasterii ascund conținutul fie de la utilizatori, fie de la motoarele de căutare:
- Livrare IP
- Analiza utilizator-agent (Puteți verifica decuparea utilizatorului-agent utilizând verificatorul gratuit de dezvăluire SEO de la Bruce Clay.
- Exploatarea comportamentelor cunoscute ale motoarelor de căutare, cum ar fi execuția JavaScript sau redirecționările și indexarea sau capacitatea de spider a diferitelor elemente HTML
Furnizarea de conținut diferit în funcție de adresa IP a browserului web solicitant sau a motorului de căutare. [Livrarea IP este tratată mai detaliat aici.]
DNS invers și DNS înainte
Căutările DNS inverse și DNS direct nu sunt o formă de descuamare, dar pot fi folosite pentru a interoga înregistrările DNS ale unei adrese IP solicitante. Google oferă detalii despre cum să verificați că Googlebot este cine pretinde că este.
Furnizarea de conținut diferit bazat pe agentul utilizator al browserului web solicitant sau al motorului de căutare. De exemplu, Googlebot/2.1 (+http://www.google.com/bot.html) sau Mozilla/5.0 (Windows; U; MSIE 7.0; Windows NT 6.0; en-US)
Google poate indexa o pagină care conține JavaScript, dar este posibil să nu urmeze redirecționarea JavaScript, totuși observăm îmbunătățiri semnificative în interpretarea de către Google a codului JavaScript (De exemplu, > generatorul de previzualizare Google redă JavaScript, AJAX, CSS3, cadre și cadre iframe).
Webmasterii folosesc uneori redirecționări JavaScript atunci când nu pot implementa o redirecționare pe partea serverului, lăsând din neatenție Googlebot pe prima pagină și trimițând browserul web (care urmează redirecționării JavaScript) la o a doua pagină care conține conținut diferit și, astfel, este semnalat ca spam de descuamare.
Uită-te la următorul cod:
<script type="text/javascript"> window.location="http://www.yoursite.com/second-page.html" </script>
O etichetă adăugată la secțiunea head din pagina HTML pentru a redirecționa utilizatorii către o altă pagină după o perioadă stabilită. Meta-eticheta de reîmprospătare nu este considerată descuiat atunci când este utilizată singură, însă poate fi combinată cu JavaScript, cadre sau alte tehnici pentru a trimite un utilizator către o altă pagină către spider-ul motorului de căutare.
Uită-te la următorul cod:
<meta http-equiv="refresh" content="0;url=http://www.yoursite.com/second-page.html">
Meta reîmprospătări duble/ multiple sau descuiere a referințelor
Se pot folosi mai multe meta reîmprospătări pentru a ascunde referintul de pe site-urile web afiliate. Evitați înlănțuirea mai multor redirecționări de orice fel, deoarece poate avea un impact negativ asupra SEO și poate chiar să contravină termenilor și condițiilor (TOS) ai partenerilor dvs. afiliați.
Meta reîmprospătare în JavaScript sau eticheta <noscript>
OK, acum intrăm în tărâmurile „pălăriei negre”. Este puțin probabil ca un webmaster să combine o meta-reîmprospătare cu JavaScript, cu excepția cazului în care acestea au fost deloc bune.
Acest lucru este ușor de detectat de un motor de căutare. Nu o face.
Este posibil ca motoarele de căutare să nu urmeze mai multe redirecționări în lanț (în conformitate cu instrucțiunile din specificația HTML, numărul recomandat a fost setat la 5 redirecționări). Google poate urmări aproximativ 5 redirecționări înlănțuite. Browserele web pot urmări mai multe.
Redirecționările multiple back-to-back (în special care combină diferite tipuri de redirecționări 301, 302, meta reîmprospătare, JavaScript etc.) influențează timpul de încărcare a paginii, pot afecta fluxul PageRank (chiar și redirecționările 301 pot vedea o scădere a PageRank) și ar putea fi considerate descuamare. spam.
Nu am putut găsi date despre câte redirecționări va urma un browser web, așa că am creat un script rapid de redirecționare înlănțuită pentru a testa unele dintre browserele instalate pe mașina mea și pentru a oferi câteva statistici despre numărul aproximativ de redirecționări urmate (după tipul de redirecționare) . Am limitat scriptul la maximum 5000 de redirecționări înlănțuite.
Browser web | Versiune | Aproximativ # de 301 de redirecționări | Aproximativ # de 302 de redirecționări | Aproximativ numărul de redirecționări Meta Refresh | Aproximativ numărul de redirecționări JavaScript |
Google Chrome | 8.0.552.224 | 21 | 21 | 21 | Mai mare de 5000 (limita necunoscuta) |
Internet Explorer | 8.0.6001.18702IC | 11 | 11 | Mai mare de 5000 (limita necunoscuta) | Mai mare de 5000 (limita necunoscuta) |
Mozilla Firefox | 3.5.16 | 20 | 20 | 20 | Mai mare de 3000 (limită necunoscută, deoarece browserul s-a oprit după 3000 de redirecționări JS) |
Safari | 3.1.2 (525.21) | 16 | 16 | Mai mare de 5000 (limita necunoscuta) | Mai mare de 5000 (limita necunoscuta) |
Pe măsură ce scriptul a fost scris, ne-am gândit să rulăm un test suplimentar și să trimitem adresa URL de redirecționare la Google. Ne-am conectat și la scenariul de pe Twitter. Rezultatele sunt în tabelul de mai jos.
Motor de căutare | IP gazdă agent utilizator | Aproximativ # din 301 de redirecționări urmate |
Microsoft *Presumat pe baza intervalului IP Mozilla/4.0 (compatibil; MSIE 7.0; Windows NT 6.0) | 65.52.17.79 | 25 |
Google Mozilla/5.0 (compatibil; Googlebot/2.1; +http://www.google.com/bot.html) | 66.249.68.249 | 5 |
Yahoo Mozilla/5.0 (compatibil; Yahoo! Slurp; http://help.yahoo.com/help/us/ysearch/slurp) | 67.195.111.225 | 4 |
Stare de nervozitate Twitterbot/0.1 | 128.242.241.94 | 3 |
LinkedIn LinkedInBot/1.0 (compatibil; Mozilla/5.0; Jakarta Commons-HttpClient/3.1 +http://www.linkedin.com) | 216.52.242.14 | 1 |
PostRank PostRank/2.0 (postrank.com) | 204.236.206.79 | 0 |
Deși Googlebot a accesat cu crawlere doar 5 dintre redirecționările permanente în acest caz, poate fi corect să presupunem că Google poate implementa o verificare bazată pe accesare cu crawlere pentru a testa redirecționările dincolo de limita de 5 bot de redirecționare, în mod similar cu Microsoft de mai sus, care urmează aproximativ 25 de redirecționări înlănțuite. Notă: am presupus că acesta este un IP deținut de Microsoft pe baza informațiilor IP Whois din Instrumente de domeniu.

Frame-urile permit unui webmaster să încorporeze un alt document într-o pagină HTML. Motoarele de căutare nu au fost în mod tradițional bune în a atribui conținutul încadrat paginii părinte, permițând unui webmaster să împiedice motoarele de căutare să vadă o parte sau tot conținutul de pe o pagină.
Frame-urile și iFrames-urile sunt elemente HTML legitime (deși nu sunt adesea cele mai bune practici din punct de vedere SEO), cu toate acestea, pot fi combinate și cu alte tehnici pentru a înșela utilizatorii.
Cadre cu o redirecționare JavaScript
Încorporarea unui cadru cu o redirecționare JavaScript poate lăsa păianjenii motoarelor de căutare pe prima pagină și poate redirecționa ascuns utilizatorii cu JavaScript activat către a doua pagină „ascunsă”.
Nu mă pot gândi la o „pălărie albă” legitimă, motiv pentru care ai alege să folosești asta. Poate duce la o penalizare sau o interdicție. Verificați codul sursă al documentelor dvs. încadrate, eliminați acest cod sau implementați o redirecționare adecvată pentru SEO.
Eticheta <noscript> a fost concepută pentru a oferi un echivalent non-JavaScript pentru conținutul JavaScript, astfel încât browserele și motoarele de căutare doar text să poată interpreta forme mai avansate de conținut. Eticheta <noscript> poate fi tratată cu o oarecare suspiciune, deoarece a fost abuzată de spammeri în trecut.
Creați funcționalitate JavaScript/ AJAX având în vedere îmbunătățirea progresivă, astfel încât conținutul să fie potrivit pentru toți utilizatorii și să nu necesite utilizarea etichetei <noscript>. Dacă site-ul dvs. web folosește eticheta <noscript> și nu puteți actualiza codul, asigurați-vă că orice text, linkuri și imagini din eticheta <noscript> descriu corect conținutul JavaScript, AJAX sau Flash pe care îl reprezintă într-un mod precis, clar și concis. manieră.
Dacă pagina sau site-ul web ofensator are probleme de indexare, luați în considerare revizuirea codului <noscript> ca parte a unui audit SEO amănunțit al site-ului.
Rețelele de livrare de conținut (CDN) permit companiilor să-și distribuie conținutul static în mai multe locații geografice pentru a îmbunătăți performanța utilizatorilor finali. În funcție de configurația CDN, există mai multe moduri de a direcționa cererea clientului către cea mai bună sursă disponibilă pentru a difuza conținutul. CDN-urile sunt o zonă complexă, implementată de obicei de companii globale care trebuie să deservească conținutul utilizatorilor în cel mai scurt timp posibil.
Dacă utilizați un CDN, asigurați-vă că acesta permite unui motor de căutare să acceseze același conținut și informații pe care le văd utilizatorii și asigurați-vă că nu există nimic pe care un motor de căutare ar putea interpreta greșit ca fiind înșelător.
Hackerii au folosit exploatări pe CMS-uri obișnuite pentru a conduce trafic către site-uri web mai puțin etice ale terților. Un exemplu este WordPress Pharma Hack, care a folosit cloaking pentru a prezenta motoarele de căutare conținut legat de produse farmaceutice, dar ascunde acel conținut de webmaster.
Asigurați-vă că CMS-ul, serverul web și software-ul sistemului de operare rulează cele mai recente versiuni și că acestea au fost securizate. Unele dintre cele mai comune exploit-uri sunt parolele slabe, software-ul sau scripturile nesigure, angajații nemulțumiți și trucurile de inginerie socială.
Antetele HTTP trimit informații suplimentare despre pagina solicitată către spider motorului de căutare sau browser web. De exemplu, starea paginii, informațiile stocate în cache/de expirare, informațiile de redirecționare etc.
Trimiterea diferitelor antete către un motor de căutare pentru a înșela poate duce la o penalizare. De exemplu, înlocuirea conținutului bun pe o pagină de rang înalt cu un formular de înscriere și modificarea antetelor de control al expirărilor și/sau cache-ului în încercarea de a păcăli motoarele de căutare să mențină versiunea de rang înalt cu conținutul bun nu va funcționa.
Googlebot poate descărca periodic conținutul, indiferent de expirarea și anteturile de control al memoriei cache, pentru a verifica dacă într-adevăr conținutul nu s-a schimbat.
Puteți verifica starea antetelor de răspuns ale serverului dvs. folosind unul dintre instrumentele noastre SEO gratuite.
Pentru a cita Google:
„Paginile de intrare sunt de obicei seturi mari de pagini de proastă calitate, în care fiecare pagină este optimizată pentru un anumit cuvânt cheie sau expresie. În multe cazuri, paginile de intrare sunt scrise pentru a se clasa pentru o anumită frază și apoi direcționează utilizatorii către o singură destinație.”
Sursa: http://www.google.com/support/webmasters/bin/answer.py?hl=ro&answer=66355
Matt Cutts are dezvăluiri despre paginile Doorway aici.
Instrumentele de testare cu mai multe variante, cum ar fi Google Website Optimizer, vă permit să îmbunătățiți eficiența site-ului dvs. web prin testarea modificărilor aduse conținutului și designului site-ului dvs. pentru a îmbunătăți ratele de conversie (sau alte valori importante măsurate).
Testarea cu mai multe variante este o utilizare etică a mascării, totuși, Google afirmă:
„Dacă găsim un site care rulează o singură combinație neoriginală la 100% pentru un număr de luni sau dacă pagina originală a unui site este încărcată cu cuvinte cheie care nu au legătură cu combinațiile afișate vizitatorilor, este posibil să eliminăm site-ul respectiv din indexul nostru”.
Nu neapărat cloaking-spam în sine, ci o tehnică de bait and switch, care 301 redirecționează domeniile care nu au legătură (de obicei domenii care sunt de vânzare sau au expirat, dar au încă PageRank sau link-uri externe semnificative) către un domeniu rău intenționat sau fără legătură cu un subiect complet diferit .https://www.youtube.com/watch?v=70LR8H8pn1Mhttps://searchengineland.com/do-links-from-expired-domains-count-with-google-17811
Acest lucru este înșelător pentru utilizatori, deoarece aceștia se pot aștepta la un site web diferit și pot transmite un text ancorat fără legătură domeniului dvs.
De asemenea, nu vă așteptați la credit pentru înregistrarea domeniilor expirate cu link-uri externe în speranța unui PR sau a unui impuls de link.
Din punct de vedere istoric, motoarele de căutare s-au străduit să interpreteze și să indexeze în mod eficient conținutul Flash, dar acestea se îmbunătățesc tot timpul.
Webmasterii au trebuit să ia în considerare utilizatorii și motoarele de căutare care nu aveau browsere activate Flash și fie au construit un site web standard HTML „în culise” pentru motoarele de căutare, au folosit o etichetă <noscript>, JavaScript sau o metodă similară pentru a-și indexa conținutul textual. Din nefericire, acest lucru poate fi identificat din greșeală ca desimulare de către motoarele de căutare dacă conținutul indexat din conținutul Flash nu se potrivește cu conținutul textual.
Construirea unui întreg site web în Flash nu este încă o idee bună din perspectiva SEO, totuși, dacă aveți conținut Flash, luați în considerare implementarea SWFObject sau o tehnică similară pentru a vă asigura că Flash se degradează cu grație atât pentru utilizatori, cât și pentru motoarele de căutare.
Numai div-urile popover și reclamele nu sunt demascate. Când anunțurile interstițiale sau div-urile popover nu pot fi închise (de exemplu, dacă utilizatorul nu se înregistrează), atunci este posibil să prezentați conținut motoarele de căutare și un formular de înscriere pentru utilizatorii dvs.
Asigurați-vă că utilizatorii pot închide sau omite reclame interstițiale, ferestre pop-up, popover-uri, div-uri suprapuse, casete luminoase etc. și să vizualizeze conținutul disponibil
AJAX (Asynchronous JavaScript And XML) este o formă de JavaScript care permite unei pagini web să preia conținut dinamic de pe un server fără a reîncărca o pagină. A devenit foarte popular în ultimii doi ani și este adesea (supra) folosit în multe aplicații Web 2.0.
AJAX poate fi folosit într-un mod înșelător pentru a prezenta conținut diferit unui utilizator și unui motor de căutare – Nu.
În plus, pe cealaltă parte a monedei, într-o abordare de „desimulare negativă”, utilizatorul poate vedea conținutul, dar un motor de căutare nu, deoarece nu poate executa apelurile JavaScript care preiau conținutul dinamic de pe server. Ceva de verificat.
Multe dintre tehnicile prezentate în acest articol pot fi combinate, tăiate sau manipulate într-o încercare zadarnică de a înșela motoarele de căutare.
Un astfel de exemplu este combinarea JavaScript și cookie-urile pentru a acoperi conținutul. Dacă funcția JavaScript nu poate scrie sau citi un cookie (cum ar fi un motor de căutare spider), atunci afișați conținut diferit față de un utilizator standard cu cookie-urile activate. Există, de asemenea, câteva exemple de script JQuery care vor permite unei persoane fără scrupule să facă acest lucru.
Demascarea linkurilor se referă la trimiterea unui utilizator la o adresă URL diferită de cea pe care sa făcut clic, folosind o redirecționare a unui anumit formular. Redirecționările pot fi folosite pentru bine și pentru rău, așa cum am văzut mai sus. Link cloaking este adesea folosit în scopuri analitice sau de întreținere. Există o serie de motive practice pentru a face acest lucru, de exemplu:
- Pentru a menține un link către un afiliat într-un PDF sau aplicație sindicalizată. Folosind o adresă URL vanity și o redirecționare similară de mai sus pentru a vă asigura că, dacă afiliatul își actualizează structura URL, puteți actualiza redirecționarea pe adresa URL vanity și, astfel, vă asigurați că linkurile din cărțile electronice și din conținutul sindicalizat încă funcționează
- Adrese URL vanitare utilizate în materialele de marketing și publicitate, care sunt mai ușor de reținut decât versiunea standard a adresei URL
Desigur, acest lucru poate fi folosit pentru a induce în eroare și a înșela, cum ar fi deghizarea unui link afiliat (de exemplu, înlocuirea linkului cu http://mysite.com/vanity-url și redirecționarea acestuia către http://affiliate.com/offer.html ?=codul-meu-afiliat).
Modificarea textului de ancorare sau a atributelor linkului cu JavaScript sau un mecanism similar pentru a păcăli sau înșela utilizatorii. Aceasta este o formă de cloaking care modifică doar o mică componentă a paginii pentru a înșela un utilizator.
- Deturnarea evenimentului onClick pentru a trimite un utilizator la o adresă URL diferită către motoarele de căutare
- Adăugarea unui atribut rel="nofollow” la linkurile afișate către motoarele de căutare și eliminarea acestuia din codul afișat utilizatorilor
- Modificarea textului de ancorare al link-urilor pentru a include cuvinte cheie în textul de ancorare trimis la motoarele de căutare și afișarea a ceva diferit pentru utilizatori
Evitați deturnarea linkurilor pentru a înșela utilizatorii, deoarece poate duce la sancțiuni pentru motoarele de căutare sau vă poate interzice site-ul.
Există forme etice ale acestei tehnici pentru a se asigura că atât utilizatorii, cât și motoarele de căutare vă pot vedea conținutul AJAX folosind HiJAX, așa cum se recomandă pe blogul Google.
Ascunderea textului este împotriva Condițiilor de utilizare ale Google și a Regulilor pentru webmasteri. Este o formă de acoperire, deoarece un motor de căutare poate vedea conținutul textual, dar un utilizator nu poate. Evitați următoarele tipuri de text ascuns:
- Text nediscernabil pe fundal (de exemplu, gri închis pe negru)
- Setarea dimensiunii fontului la 0
- Stilizarea textului de ancorare bogat în cuvinte cheie ca textul corpului standard, astfel încât utilizatorii să nu realizeze că este un link
- Afișarea foilor de stil în cascadă (CSS): niciuna
- Text în spatele imaginilor. Întotdeauna un subiect complicat și adesea deschis pentru dezbateri între SEO. Dacă textul din spatele imaginii este o reprezentare corectă și corectă a unei imagini (de exemplu, un antet cu un font personalizat), „ar fi bine” să-l citați pe Matt Cutts. Soluția finală va depinde de circumstanțele dvs. particulare, totuși, verificați aceste resurse pentru câteva îndrumări: W3C: Utilizarea CSS pentru a înlocui textul cu imagini , Farner Image Replacement (FIR) , Scalable Inman Flash Replacement (sIFR) (Vă rugăm să rețineți că textul înlocuit cu sIFR poate nu apar în Google Preview din decembrie 2010.)
Dacă traficul în motoarele de căutare este important pentru dvs., asigurați-vă că luați în considerare următoarele în ceea ce privește demascarea:
- Asigurați-vă că sunteți familiarizat cu formele evidente și nu atât de evidente de descuiere de mai sus și sunteți conștient de modul în care acestea sunt utilizate pe site-ul dvs. pentru a evita eventualele penalități.
- Dacă implementați o formă de desimulare, asigurați-vă că aceasta este revizuită corespunzător din perspectivă SEO pentru a evita potențialele penalități.