Considerazioni SEO durante la migrazione a un framework JavaScript

Pubblicato: 2022-04-19

Eventuali aggiornamenti o modifiche importanti al tuo sito Web dovrebbero sempre essere apportati tenendo ben presenti le considerazioni SEO. Dagli errori di robots.txt, ai reindirizzamenti delle pagine mal implementati, è fin troppo facile vedere le tue classifiche di ricerca svanire, letteralmente, dall'oggi al domani.

Questo vale anche per la migrazione del tuo sito web a un framework JavaScript. Con un'attenta pianificazione, puoi assicurarti che il tuo sito rimanga visibile ai robot dei motori di ricerca, evitare i rischi e le insidie ​​comuni che portano alla perdita di traffico e preparare il tuo sito per una continua crescita futura.

È un problema ampio e complesso con molti dettagli tecnici da tenere a mente durante la migrazione del tuo sito web. Tuttavia, ci sono alcuni errori comuni da evitare e alcuni principi generali che possono aiutarti a guidarti nella giusta direzione.

Ecco alcune delle principali preoccupazioni SEO durante la migrazione a un framework JavaScript.

Conserva gli URL importanti

Googlebot e gli altri crawler dei motori di ricerca associano il contenuto del sito Web agli URL (è così che si collegano a te dai risultati di ricerca), ma i framework JavaScript possono spezzare il legame tra URL statici e contenuto aggiornando le pagine in modo dinamico.

Ciò è particolarmente vero per le applicazioni a pagina singola (SPA) che necessitano di un trattamento speciale per garantire che eventuali URL importanti del precedente sito Web vengano preservati e rimangano visibili a Googlebot, per proteggere la tua presenza esistente nelle SERP.

Non lasciarti ingannare se la tua home page appare ancora nella sua giusta classifica: questo potrebbe essere un segno che Google sta scansionando con successo la home page della tua SPA ma non riesce a trovare il contenuto servito dinamicamente lato client.

Abilita accesso crawler

Non si tratta semplicemente di sbloccare i crawler dei motori di ricerca nel file robots.txt. Hai bisogno che siano in grado di eseguire la scansione del tuo sito e vedere i tuoi contenuti e, per questo, è probabile che tu abbia bisogno di una qualche forma di rendering lato server.

Implementando il rendering lato server o il pre-rendering, fornisci ai robot di ricerca una versione del tuo contenuto così come appare dopo l'esecuzione di qualsiasi JavaScript, eliminando il carico di risorse di chiedere ai robot di eseguire il rendering del contenuto della pagina da soli.

Ciò non solo rende ogni pagina visibile ai crawler, ma può anche aumentare il numero di pagine e i livelli della gerarchia del tuo sito Web che vengono indicizzati, ponendo meno domanda sul budget di scansione dei robot per pagina.

Migliora la scansione

Puoi dare ai robot un aiuto ancora maggiore presentando le informazioni in modo facile da digerire. Pensa a questo quando implementi funzionalità JavaScript come gli eventi onclick e l'impaginazione a scorrimento infinito.

Tenendo presente ciò che i robot possono effettivamente fare, puoi assicurarti che il tuo contenuto sia loro visibile all'interno di tali capacità. Come ricompensa, è probabile che una maggior parte dei tuoi contenuti venga scansionata, indicizzata e classificata.

Un ulteriore vantaggio è che creando una versione del tuo sito web adatta ai crawler, potresti anche migliorare l'accessibilità per alcuni visitatori umani, che potrebbero non avere JavaScript funzionante sul proprio dispositivo quando visitano il tuo sito.

[Case Study] Aumenta la visibilità migliorando la scansione del sito Web per Googlebot

Paris Match ha dovuto affrontare una chiara problematica: controllare a fondo il suo sito, identificarne i punti di forza e di debolezza, determinarne le priorità e correggere i fattori di blocco per la scansione di Google. I problemi SEO del sito web di Paris Match sono quelli comuni dei siti di notizie.
Leggi il caso di studio

Reindirizza i vecchi URL

Se non prevedi di preservare i vecchi URL esattamente come sono, ma hai una forte presenza nella ricerca, prendi in considerazione l'implementazione di reindirizzamenti permanenti per indirizzare i robot all'equivalente più simile all'interno della tua nuova mappa del sito.

Ciò preserva l'autorità del dominio e può proteggere le tue classifiche, almeno fino a quando qualsiasi contenuto appena pubblicato non viene completamente scansionato e indicizzato, a quel punto potresti decidere o meno di rimuovere i reindirizzamenti precedenti, se quelle vecchie pagine non stanno più generando traffico significativo.

Usa link interni coerenti

Ancora una volta, si tratta del caricamento dinamico dei contenuti. I framework JavaScript possono liberare alcune interessanti funzionalità, come la possibilità di estrarre dati da una risorsa esterna e utilizzarli per aggiornare la pagina corrente, invece di passare a un URL diverso.

Per la SEO, è meglio mantenere il contenuto relativamente statico e caricare un URL diverso quando si cambia sostanzialmente la pagina. I crawler comprendono meglio questo approccio, possono mappare meglio il tuo sito web nel suo insieme e hanno maggiori probabilità di visitare e interpretare correttamente la nuova pagina.

La scarsa disciplina sui collegamenti interni è una delle principali insidie ​​di molte migrazioni. Può lasciare alcune pagine molto più difficili da scansionare per i robot e invia segnali confusi sull'importanza relativa di alcune pagine, rispetto ad altre.

L'importanza della coerenza

Al di là dei link interni, cerca di essere coerente su tutti i segnali che invii ai motori di ricerca. Ciò è particolarmente vero se il tuo sito Web carica solo parte del suo contenuto tramite il framework JavaScript, poiché dovresti assicurarti che le pagine JavaScript vengano caricate e funzionino in modo simile a qualsiasi pagina HTML o PHP sul tuo sito.

Esempi di ciò possono includere la risoluzione di URL con e senza una barra finale (se questo risolve o reindirizza deve essere coerente in tutte le aree del tuo sito Web), nonché best practice SEO come l'implementazione di tag canonici (che di nuovo dovrebbero essere coerenti in termini di contenuto è considerato canonico).

Prevenire è meglio che curare, soprattutto per quanto riguarda le classifiche di ricerca. Quindi, cerca di capire non solo come vengono visualizzati i contenuti sul tuo sito web, ma anche come vengono visualizzati, indipendentemente dal fatto che si tratti di rendering lato client o lato server, e se la tua migrazione a JavaScript influirà sulla visibilità dei contenuti sul tuo sito web, la prossima volta che viene scansionato.

[Case Study] Impedisci alla tua riprogettazione di penalizzare il tuo SEO

Un anno dopo la riprogettazione del sito Web, EasyCash si è presto resa conto che le prestazioni sperate non erano disponibili. Hanno identificato e risolto diversi blocchi stradali SEO.
Leggi il caso di studio

Cambierà mai questo?

Il rendering dinamico non è amico della SEO a causa della natura relativamente semplice dei robot di ricerca. In futuro, potremmo vedere un Googlebot più complesso e capace in grado di aggirare alcuni di questi problemi, ma per ora spetta ai webmaster offrire contenuti nel modo più commestibile possibile.

Questo è vero durante la pianificazione, l'implementazione e la gestione di qualsiasi sito Web che si basa su una presenza di ricerca. Ma è di fondamentale importanza durante i principali aggiornamenti, upgrade e migrazioni, inclusa la migrazione a un framework JavaScript.

Tenendo presente alcune delle insidie ​​e delle migliori pratiche descritte sopra, puoi mantenere le tue ambizioni SEO in prima linea nella migrazione del tuo sito Web ed evitare lo scenario da incubo di far sparire un sito Web grande e redditizio dalle SERP durante la notte.