Studiu de caz pentru analiza fișierelor jurnal
Publicat: 2020-04-07Analiza fișierelor jurnal necesită timp, mai puțin timp cu OnCrawl, dar timp totuși. SEO au o listă lungă de optimizări și audituri, iar fișierele jurnal fiind unul dintre elementele mai grele de pe listă, are un obicei urât de a se strecura la capătul listei menționate.
Este natura umană să amâni, dar este mai ușor să începi când știi ce te așteaptă.
O analiză recentă a fișierelor jurnal la 97th Floor a adus clientului lor o creștere cu 25% a veniturilor organice în doar 30 de zile după finalizarea analizei .
Ce trebuie să știți înainte de a efectua o analiză a fișierului jurnal
Dacă sunteți nou în ceea ce privește fișierele jurnal, acest articol nu este aici pentru a acoperi elementele de bază în întregime. Citiți în schimb acest articol.
Pentru a face lucrurile scurte, știți că analiza fișierelor jurnal este în esență o revizuire a jurnalelor de server web care au fost arhivate pe site-ul dvs. Jurnalele înregistrează cazuri de roboți (cum ar fi Google) care interacționează cu site-ul dvs.
Mulți se întreabă „când ar trebui să rulez o analiză a fișierului jurnal?” Și răspunsul corect este pur și simplu „Da”.
Iată de ce: crawlability este baza oricărei lansări tehnice SEO. Fără accesare cu crawlere, site-urile nu vor fi indexate. Fără a fi indexați, nu se vor clasa. Și fără clasament... Înțelegi punctul.
Există câteva modalități de îmbunătățire a accesului cu crawlere a site-ului, dar poate niciuna mai eficientă și atotcuprinzătoare decât o analiză a fișierului jurnal. Acesta este motivul pentru care ar trebui să servească drept coloană vertebrală a oricărei lansări tehnice SEO. Deci, fie că este la începutul unei lansări tehnice, fie că sunteți cu ani într-o campanie matură (dar nu v-ați uitat recent la fișierele jurnal), este timpul pentru o analiză a fișierelor jurnal.
Și pentru oricine este încă pe linie despre rularea unei analize a fișierului jurnal, voi adăuga acest sfat. Pentru orice SEO care crede că a făcut totul în carte, dar încă se luptă să obțină acel cuvânt cheie încăpățânat de la pagina 1: rulează acea analiză a fișierului jurnal.
Analizor de jurnal oncrawl
Analiza fișierelor jurnal în acțiune: observarea constatărilor
Examinarea fișierelor dvs. jurnal poate produce o multitudine de constatări, inclusiv:
- Volumul de accesare a botului
- Răsfoiți risipa bugetară
- 302 redirecționări
- Erori de cod de răspuns
- Prioritate de accesare cu crawlere
- Accesare cu crawlere URL duplicat
- Data ultimei accesări cu crawlere
Dar aceste descoperiri în sine nu ajută. Este nevoie de un SEO care poate vedea problemele dincolo pentru a crea soluții care să profite la maximum de o analiză a fișierului jurnal.
La 97th Floor, avem un client de comerț electronic care vinde produse unice cu prețuri mari. Practic toate produsele sunt unice, iar atunci când produsul este vândut, clientul nostru ștergea pagina de pe site. Acest lucru a făcut dificilă obținerea oricărui tip de creștere la nivel de pagină. De asemenea, a provocat o mulțime de confuzii de crawlere cu Googlebot.
Inutil să spun că au purtat o luptă dificilă cu Google înainte să ne implicăm noi. Când ne-am conectat cu clientul, am efectuat imediat o analiză a fișierului jurnal.
Analiza noastră de fișiere jurnal a produs multe constatări (așa cum fac de obicei), dar acestea trei au ieșit în evidență:
- Un număr mare de subfoldere redundante au fost frecvent accesate cu crawlere de către Google
- Multe pagini care au returnat o eroare 404 erau încă accesate cu crawlere de Googlebot. Deoarece au fost eliminate de pe site, nu au putut fi găsite în accesarea cu crawlere inițială a site-ului
- Subfolderele neimportante erau accesate cu crawlere mai mult decât paginile de destinație cheie
După cum am menționat mai devreme, analiza fișierului jurnal nu se oprește când analiza se termină. Continuă prin elementele de acțiune și în implementare și execuție. În situația clientului nostru, ei iroseau bugetul de accesare cu crawlere de la Google pe pagini care pur și simplu nu mișcau acul.
Noile noastre pagini au fost bine optimizate, dar nu au obținut tracțiunea de care aveam nevoie pentru a avea rezultate semnificative.
Când am descoperit aceste trei probleme din analiza fișierului jurnal, a avut sens de ce clasamentele noastre nu erau mai înalte. Google folosea bugetul nostru de accesare cu crawlere pentru a căuta pagini care nu erau bine optimizate sau care nu erau deloc optimizate.
Pentru a obține clasamentele care ar aduce traficul de care aveam nevoie pentru a avea succes, trebuia mai întâi să rezolvăm elementele din analiza fișierului jurnal.
În acest caz, era evident că bugetul de accesare cu crawlere era irosit pe pagini neimportante, o constatare comună cu o analiză a fișierului jurnal.
Soluții din analiza fișierelor jurnal
Abordarea deșeurilor de crawlere în subfoldere redundante
Deoarece clientul nostru era un site de comerț electronic, am văzut un număr mare de subdosare care au fost duplicate pe site. Aceste subfoldere erau în mare parte pagini de categorii care erau atât de vechi încât informațiile pe care le dețin erau cu mult depășite și aproape imposibil de descoperit organic.
Dar Googlebot nu numai că le descoperise. A revenit frecvent pentru a le retrage cu crawlere, consumând bugetul nostru de accesare cu crawlere.
Soluția noastră a fost să ștergem și să redirecționăm aceste subfoldere redundante către subfoldere mai adecvate și mai relevante. Tocmai lansăm o structură de categorii complet revizuită, care trebuia să ne ajute să ne poziționăm pentru câteva cuvinte cheie mai mari. Puteți ghici unde am redirecționat aceste subpagini redundante?
Redirecționarea acestor pagini vechi și uitate către omologii lor mai noi, mai optimizați, ne-a dat un avans în SERP-uri.
[Studiu de caz] Optimizați traficul de căutare organic folosind analiza fișierelor jurnal
Corectarea deșeurilor de crawlere în subfolderele neimportante
Acest punct pare similar cu ultimul punct referitor la subfolderele redundante. Subfolderele redundante au fost uitate și au pierdut duplicatele versiunilor noastre actuale. Distincția dintre subfolderele redundante și cele neimportante este că acum vorbim despre subfoldere care erau încă relevante, dar nu doar despre paginile de bază pentru căutare.
Soluția aici a fost orice altceva decât simplă. Deoarece nu cunoaștem cauza principală a situației, a trebuit să prescriem o soluție largă care să implice puțin din toate, inclusiv:
- Inserarea de link-uri interne strategice de la paginile noastre cu prioritate redusă (dar foarte accesate cu crawlere) către paginile noastre cu prioritate ridicată, optimizate pentru SEO
- Rearanjarea hărții site-ului pentru a include pagini mai importante mai sus în fișierul .xml
- Revizuirea informațiilor rel="canonice" și meta-roboți pe paginile noastre cu prioritate mai mare
- Revizuirea fișierului robots.txt pentru a vă asigura că nimic nu a fost blocat care nu ar trebui să fie (site-urile mari de comerț electronic trebuie să verifice acest lucru în special.)
- Ștergerea și eliminarea paginilor inutile
Ștergerea paginilor moarte
Am efectuat deja un audit al site-ului în care am accesat cu crawlere site-ul și am găsit toate cele 404 erori pe care le-ar putea identifica o accesare internă a site-ului.
Dar aceasta este frumusețea analizei unui fișier jurnal, nu extrageți date limitate din propriul dvs. crawler intern. Vedeți exact ceea ce vede Google. În esență, este un audit al site-ului din perspectiva unui străin — cel mai important străin: Google.
Remedierea aici a fost simplă, ceea ce a ajutat să compensați tot timpul petrecut la punctul anterior. Am redirecționat 301 aceste pagini vechi orfane către omologii lor optimizați de pe site. Terminat.
Rezultatele analizei unui fișier jurnal
Cea mai bună parte a analizei noastre de fișiere jurnal pentru acest client au fost rezultatele rapide pe care le-a obținut.
După cum am menționat anterior, a adus clientului o creștere de 25% a veniturilor organice în doar 30 de zile de la implementarea elementelor de acțiune de mai sus.
În acest timp, am observat și o mică creștere a ratelor de conversie pentru traficul organic. Deoarece această creștere a avut loc în timpul unui sezon lent, nu există nicio sezonalitate în joc aici. Iar faptul că ratele de conversie au crescut înseamnă că traficul nu doar a venit în număr mai mare, ci a fost și trafic calificat.
Traficul a fost probabil mai calificat deoarece, după redistribuirea eficientă a bugetului de accesare cu crawlere pe care site-ul clientului nostru îl avea cu Google, am atras atenția asupra paginilor bazate pe mai multe intenții, obținând astfel clasamente mai bune pentru cuvintele cheie cu intenții mai mari. Acest lucru însemna că atragem utilizatorii mai jos în pâlnie către paginile potrivite pentru a-i ajuta în călătoria lor.
Poate că sună prost, dar la 97th Floor credul nostru este că facem internetul un loc mai bun. Analizele fișierelor jurnal fac acest lucru deoarece compensează deficiențele accesării cu crawlere inexacte ale Google. Acest lucru aduce pagini de calitate superioară în topul SERP-urilor, făcând experiența de căutare pe internet mult mai bună pentru toată lumea.
Data viitoare când vă confruntați cu o problemă de crawling, sper că nu vă veți gândi de două ori să executați o analiză a fișierului jurnal, să prezentați soluții, să le vedeți. Veți vedea că site-ul dvs. câștigă mai mult trafic și conversii.