Considerații SEO atunci când migrați la un cadru JavaScript

Publicat: 2022-04-19

Orice actualizări sau modificări majore ale site-ului dvs. ar trebui să fie făcute întotdeauna ținând cont de considerentele SEO. De la erorile robots.txt, până la redirecționări de pagină prost implementate, este prea ușor să vezi că clasamentele tale de căutare dispar – la propriu – peste noapte.

Acest lucru este la fel de adevărat și atunci când migrați site-ul dvs. la un cadru JavaScript. Cu o planificare atentă, vă puteți asigura că site-ul dvs. rămâne vizibil pentru roboții motoarelor de căutare, puteți evita riscurile și capcanele obișnuite care duc la pierderea de trafic și vă puteți pregăti site-ul pentru creșterea continuă în viitor.

Este o problemă mare și complexă, cu o mulțime de detalii tehnice de reținut pe parcursul migrării site-ului dvs. Dar, există câteva greșeli comune de evitat, precum și câteva principii generale care vă pot ajuta să vă ghidați în direcția corectă.

Iată câteva dintre principalele preocupări legate de SEO atunci când migrați la un cadru JavaScript.

Păstrați adrese URL importante

Googlebot și ceilalți crawler-uri ale motoarelor de căutare asociază conținutul site-ului web cu adresele URL - acesta este modul în care se leagă la dvs. din rezultatele căutării lor - dar cadrele JavaScript pot rupe legătura dintre adresele URL statice și conținut prin actualizarea dinamică a paginilor.

Acest lucru este valabil mai ales pentru aplicațiile cu o singură pagină (SPA) care au nevoie de un tratament special pentru a se asigura că orice URL-uri importante de pe fostul site web sunt păstrate și rămân vizibile pentru Googlebot, pentru a vă proteja prezența existentă în SERP-uri.

Nu vă lăsați păcăliți dacă pagina dvs. de pornire apare în continuare în clasamentul său potrivit - acesta ar putea fi un semn că Google accesează cu crawlere pagina de pornire a SPA-ului dvs., dar nu reușește să găsească conținutul difuzat dinamic de partea clientului.

Activați accesul cu crawler

Este vorba despre mai mult decât deblocarea crawlerelor motoarelor de căutare din fișierul robots.txt. Aveți nevoie de ei pentru a vă putea accesa cu crawlere site-ul și a vă vedea conținutul – și pentru asta, este posibil să aveți nevoie de o formă de redare pe partea serverului.

Prin implementarea redării pe partea serverului sau a redării prealabile, oferiți roboților de căutare o versiune a conținutului dvs. așa cum apare după ce au fost executate JavaScript, eliminând sarcina de resurse de a cere roboților să redeze ei înșiși conținutul paginii.

Acest lucru nu numai că face ca fiecare pagină să fie vizibilă pentru crawler-uri, dar poate, de asemenea, să mărească numărul de pagini și nivelurile ierarhiei site-ului dvs. web care sunt indexate, punând mai puțină cerere pentru bugetul de accesare cu crawlere al roboților pe pagină.

Îmbunătățiți capacitatea de crawler

Le puteți oferi roboților și mai multă mână de ajutor prezentând informații într-un mod ușor de digerat. Gândiți-vă la asta atunci când implementați capabilități JavaScript, cum ar fi evenimentele onclick și paginarea cu derulare infinită.

Ținând cont de ceea ce pot face de fapt roboții, vă puteți asigura că conținutul dvs. este vizibil pentru aceștia în cadrul acelor capacități. Ca recompensă, este posibil ca mai mult din conținutul dvs. să fie accesat cu crawlere, indexat și clasat.

Un bonus suplimentar este că, prin crearea unei versiuni de crawler a site-ului dvs. web, puteți îmbunătăți accesibilitatea pentru unii vizitatori umani, care este posibil să nu aibă JavaScript funcțional pe dispozitivul lor atunci când vă vizitează site-ul.

[Studiu de caz] Creșteți vizibilitatea prin îmbunătățirea accesării cu crawlere a site-ului web pentru Googlebot

Paris Match s-a confruntat cu o problemă clară: auditarea în profunzime a site-ului său, identificarea punctelor forte și a punctelor slabe, determinarea priorităților și remedierea factorilor de blocare pentru crawl-ul Google. Problemele SEO ale site-ului Paris Match sunt cele comune ale site-urilor de știri.
Citiți studiul de caz

Redirecționează adresele URL vechi

Dacă nu intenționați să păstrați adresele URL vechi exact așa cum sunt, dar aveți o prezență puternică în căutare, luați în considerare implementarea redirecționărilor permanente pentru a direcționa roboții către echivalentul cel mai apropiat din noul dvs. sitemap.

Acest lucru păstrează autoritatea domeniului și vă poate proteja clasamentele, cel puțin până când orice conținut nou publicat este complet accesat cu crawlere și indexat, moment în care puteți decide sau nu să eliminați redirecționările mai vechi, dacă acele pagini vechi nu mai aduc un trafic semnificativ.

Utilizați link-uri interne consistente

Din nou, este vorba despre încărcarea dinamică a conținutului. Cadrele JavaScript pot dezlănțui unele capabilități interesante, cum ar fi capacitatea de a extrage date dintr-o resursă externă și de a le folosi pentru a actualiza pagina curentă, în loc să navighezi la o adresă URL diferită.

Pentru SEO, este mai bine să păstrați conținutul relativ static și să încărcați o adresă URL diferită atunci când schimbați substanțial pagina. Crawlerele înțeleg mai bine această abordare, pot mapa mai bine site-ul dvs. în ansamblu și au șanse mai mari să viziteze și să interpreteze corect noua pagină.

Disciplina slabă privind legăturile interne este o capcană majoră a multor migrații. Poate lăsa unele pagini mult mai greu de accesat roboții și trimite semnale confuze despre importanța relativă a unor pagini, în comparație cu altele.

Importanța consecvenței

Dincolo de link-urile interne, încearcă să fii consecvent cu privire la toate semnalele pe care le trimiți către motoarele de căutare. Acest lucru este valabil mai ales dacă site-ul dvs. încarcă doar o parte din conținutul său prin cadrul JavaScript, deoarece ar trebui să vă asigurați că paginile JavaScript se încarcă și funcționează similar cu orice pagini HTML sau PHP de pe site-ul dvs.

Exemple în acest sens pot include rezolvarea adreselor URL cu și fără o bară oblică (dacă aceasta se rezolvă sau redirecționează ar trebui să fie consecventă în toate zonele site-ului dvs.), precum și cele mai bune practici SEO, cum ar fi implementarea etichetelor canonice (care din nou ar trebui să fie consecvente în ceea ce privește conținutul este considerat canonic).

Prevenirea este mai bună decât vindecarea, mai ales în ceea ce privește clasamentele de căutare. Așadar, încercați să înțelegeți nu numai modul în care se afișează conținutul pe site-ul dvs. web, ci și modul în care acesta este afișat, indiferent dacă este prin randare pe partea client sau pe partea serverului - și dacă migrarea dvs. la JavaScript va afecta vizibilitatea conținutului de pe site-ul dvs. data viitoare când este târât.

[Studiu de caz] Evitați ca reproiectarea să vă penalizeze SEO

La un an după reproiectarea site-ului lor, EasyCash și-a dat seama curând că performanța la care speraseră nu era acolo. Au identificat și rezolvat mai multe blocaje SEO.
Citiți studiul de caz

Se va schimba vreodată asta?

Redarea dinamică nu este prietenă cu SEO din cauza naturii relativ simple a roboților de căutare. În viitor, s-ar putea să vedem un Googlebot mai complex și mai capabil, care poate rezolva unele dintre aceste probleme, dar, deocamdată, sarcina este a webmasterilor să ofere conținut în cel mai comestibil mod posibil.

Acest lucru este valabil pe parcursul planificării, implementării și gestionării oricărui site web care se bazează pe o prezență de căutare. Dar este de o importanță capitală în timpul actualizărilor majore, upgrade-urilor și migrărilor, inclusiv migrarea către un cadru JavaScript.

Ținând cont de unele dintre capcanele și cele mai bune practici prezentate mai sus, vă puteți menține ambițiile SEO în fruntea migrării site-ului dvs. și puteți evita scenariul de coșmar al unui site web mare și profitabil să dispară peste noapte din SERP-uri.