Caso di studio di analisi dei file di registro
Pubblicato: 2020-04-07L'analisi dei file di registro richiede tempo, meno tempo con OnCrawl, ma comunque tempo. I SEO hanno una lunga lista di ottimizzazioni e audit, e poiché i file di registro sono uno degli elementi più pesanti dell'elenco, hanno la brutta abitudine di strisciare in fondo a detto elenco.
È nella natura umana procrastinare, ma è più facile iniziare quando sai cosa ti sta aspettando.
Una recente analisi del file di registro al 97° piano ha portato il suo cliente a un aumento del 25% delle entrate organiche in soli 30 giorni dopo il completamento dell'analisi .
Cosa devi sapere prima di eseguire un'analisi del file di registro
Se non conosci i file di registro, questo articolo non tratta per intero le nozioni di base. Invece, leggi questo articolo.
Per farla breve, sappi che l'analisi dei file di registro è essenzialmente una revisione dei registri del server Web che sono stati archiviati sul tuo sito. I log registrano istanze di bot (come Google) che interagiscono con il tuo sito.
Molti chiedono "quando dovrei eseguire un'analisi del file di registro?" E la risposta corretta è semplicemente "Sì".
Ecco perché: la scansione è alla base di qualsiasi implementazione SEO tecnica. Senza la scansione i siti non verranno indicizzati. Senza essere indicizzati, non si classificheranno. E senza classifica... Hai capito.
Esistono alcuni modi per migliorare la scansione del sito, ma forse nessuno è più efficace e onnicomprensivo di un'analisi del file di registro. Questo è il motivo per cui dovrebbe fungere da spina dorsale di qualsiasi implementazione SEO tecnica. Quindi, sia che si tratti dell'inizio di un'implementazione tecnica, sia che tu sia da anni in una campagna matura (ma non hai esaminato i file di registro di recente), è tempo per un'analisi del file di registro.
E per chiunque sia ancora in linea sull'esecuzione di un'analisi del file di registro, aggiungerò questo consiglio. A qualsiasi SEO che crede di aver fatto tutto ciò che è stato detto ma sta ancora lottando per ottenere quella parola chiave testarda a pagina 1: esegui l'analisi del file di registro.
Analizzatore di log in scansione
Analisi dei file di registro in azione: osservare i risultati
La revisione dei file di registro può produrre una miriade di risultati, tra cui:
- Volume di scansione dei bot
- Scansione dello spreco di budget
- 302 reindirizzamenti
- Errori del codice di risposta
- Priorità di scansione
- Scansione di URL duplicati
- Data dell'ultima scansione
Ma questi risultati da soli non aiutano. Ci vuole un SEO in grado di vedere oltre i problemi per creare soluzioni che trarranno il massimo dall'analisi di un file di registro.
Al 97° piano, abbiamo un cliente di e-commerce che vende prodotti unici con cartellini di prezzo elevati. Praticamente tutti i prodotti sono unici e quando il prodotto è stato venduto, il nostro cliente stava rimuovendo la pagina dal sito. Ciò ha reso difficile ottenere qualsiasi tipo di crescita a livello di pagina. Ha anche causato molta confusione sulla scansione con Googlebot.
Inutile dire che stavano combattendo una dura battaglia con Google prima che fossimo coinvolti. Durante l'onboarding con il client, abbiamo eseguito immediatamente un'analisi del file di registro.
La nostra analisi del file di registro ha prodotto molti risultati (come fanno di solito), ma questi tre si sono distinti:
- Un gran numero di sottocartelle ridondanti veniva spesso scansionato da Google
- Molte pagine che restituivano un errore 404 venivano ancora scansionate da Googlebot. Poiché erano stati rimossi dal sito, non è stato possibile trovarli durante la scansione iniziale del sito
- Le sottocartelle non importanti venivano sottoposte a scansione più delle pagine di destinazione chiave
Come accennato in precedenza, l'analisi dei file di registro non si interrompe al termine dell'analisi. Continua attraverso gli elementi dell'azione e nell'attuazione e nell'esecuzione. Nella situazione del nostro cliente, stavano sprecando il crawl budget di Google su pagine che semplicemente non muovevano l'ago.
Le nostre nuove pagine erano ben ottimizzate, ma non stavano ottenendo la trazione di cui avevamo bisogno per ottenere classifiche significative.
Quando abbiamo scoperto questi tre problemi dalla nostra analisi del file di registro, ha avuto senso il motivo per cui le nostre classifiche non erano più alte. Google stava utilizzando il nostro budget di scansione per esaminare le pagine che non erano ben ottimizzate o che non erano affatto ottimizzate.
Per ottenere le classifiche che avrebbero portato il traffico di cui avevamo bisogno per vedere il successo, dovevamo prima risolvere gli elementi dall'analisi del file di registro.
In questo caso, era ovvio che il crawl budget veniva sprecato in pagine non importanti, un risultato comune con un'analisi del file di registro.
Soluzioni dall'analisi dei file di registro
Affrontare la ricerca per indicizzazione nelle sottocartelle ridondanti
Poiché il nostro cliente era un sito di e-commerce, abbiamo riscontrato un gran numero di sottocartelle duplicate nel sito. Queste sottocartelle erano per lo più pagine di categorie così vecchie che le informazioni che contenevano erano ampiamente obsolete e quasi impossibili da scoprire organicamente.
Ma Googlebot non solo li aveva scoperti. Continuava a tornare spesso per scansionarli nuovamente, intaccando il nostro budget di scansione.
La nostra soluzione era eliminare e reindirizzare queste sottocartelle ridondanti a sottocartelle più appropriate e pertinenti. Avevamo appena lanciato una struttura di categorie completamente rivista che avrebbe dovuto aiutarci a classificarci per alcune parole chiave più grandi. Riuscite a indovinare dove abbiamo reindirizzato queste sottopagine ridondanti?
Reindirizzare queste pagine vecchie e dimenticate alle loro controparti più nuove e più ottimizzate ci ha dato un vantaggio nelle SERP.
[Case Study] Ottimizza il traffico di ricerca organico utilizzando l'analisi dei file di registro
Correzione della ricerca per indicizzazione nelle sottocartelle non importanti
Questo punto sembra simile all'ultimo punto relativo alle sottocartelle ridondanti. Le sottocartelle ridondanti sono state dimenticate e hanno perso i duplicati delle nostre versioni correnti. La distinzione tra sottocartelle ridondanti e non importanti è che ora stiamo parlando di sottocartelle che erano ancora rilevanti, ma semplicemente non di pagine fondamentali per la ricerca.
La soluzione qui era tutt'altro che semplice. Dal momento che non conosciamo la causa principale della situazione, dovevamo prescrivere una soluzione ampia che coinvolgesse un po' di tutto, tra cui:
- Inserimento di collegamenti interni strategici dalle nostre pagine a bassa priorità (ma altamente scansionate) alle nostre pagine ottimizzate per la SEO ad alta priorità
- Riorganizzazione della mappa del sito per includere le pagine più importanti più in alto nel file .xml
- Revisione delle informazioni rel="canonical" e meta robot nelle nostre pagine con priorità più alta
- Rivisitazione del file robots.txt per assicurarsi che non sia stato bloccato nulla che non dovrebbe essere (in particolare i siti di e-commerce di grandi dimensioni devono verificarlo).
- Eliminazione e rimozione di pagine non necessarie
Cancellare le pagine morte
Avevamo già condotto un controllo del sito durante il quale abbiamo eseguito la scansione del sito e trovato tutti i 404 errori che una scansione interna del sito potrebbe identificare.
Ma questo è il bello dell'analisi di un file di registro, non stai estraendo dati limitati dalla tua ricerca per indicizzazione interna. Stai visualizzando esattamente ciò che sta vedendo Google. In sostanza è un controllo del sito dal punto di vista di un estraneo, l'outsider più importante: Google.
La soluzione qui è stata semplice, il che ha aiutato a recuperare tutto il tempo trascorso sul punto precedente. Abbiamo 301 reindirizzato queste vecchie pagine orfane alle loro controparti ottimizzate sul sito. Fatto.
I risultati di un'analisi del file di registro
La parte migliore della nostra analisi dei file di registro per questo cliente sono stati i risultati rapidi che ha ottenuto.
Come accennato in precedenza, ha guadagnato al cliente un aumento del 25% delle entrate organiche in soli 30 giorni dopo l'implementazione delle azioni di cui sopra.
Durante questo periodo abbiamo anche visto un piccolo aumento dei tassi di conversione per il traffico organico. Poiché questo aumento si è verificato durante una stagione lenta, non c'è stagionalità in gioco qui. E il fatto che i tassi di conversione siano aumentati significa che il traffico non solo è arrivato in numero maggiore, ma è stato anche traffico qualificato.
Il traffico era probabilmente più qualificato perché dopo aver ridistribuito in modo efficace il budget di scansione che il sito del nostro cliente aveva con Google, abbiamo attirato l'attenzione su pagine più basate sugli intenti, ottenendo così un posizionamento migliore su parole chiave con intenzioni più elevate. Ciò significava che stavamo attirando gli utenti più in basso nella canalizzazione verso le pagine giuste per assisterli nel loro viaggio.
Può sembrare sdolcinato, ma al 97° piano il nostro credo è che rendiamo Internet un posto migliore. Le analisi dei file di registro lo fanno perché compensano le carenze delle scansioni imprecise di Google. Ciò porta pagine di qualità superiore in cima alle SERP, rendendo l'esperienza di ricerca su Internet molto migliore per tutti.
La prossima volta che ti trovi di fronte a un problema di crawling, spero che non ci penserai due volte a eseguire un'analisi del file di registro, presentare soluzioni e portarle a termine. Vedrai che il tuo sito guadagnerà più traffico e conversioni.