Kwestie SEO podczas migracji do frameworka JavaScript
Opublikowany: 2022-04-19Wszelkie istotne aktualizacje lub zmiany w witrynie należy zawsze wprowadzać z uwzględnieniem kwestii SEO. Od błędów w pliku robots.txt po źle zaimplementowane przekierowania stron, bardzo łatwo jest zauważyć, że rankingi wyszukiwania znikają – całkiem dosłownie – z dnia na dzień.
Dotyczy to również migracji witryny do frameworka JavaScript. Dzięki starannemu planowaniu możesz upewnić się, że Twoja witryna pozostanie widoczna dla robotów wyszukiwarek, uniknąć typowych zagrożeń i pułapek, które prowadzą do utraty ruchu oraz przygotować witrynę na dalszy rozwój w przyszłości.
Jest to duży i złożony problem z wieloma szczegółami technicznymi, o których należy pamiętać podczas migracji witryny. Jest jednak kilka typowych błędów, których należy unikać, a także kilka nadrzędnych zasad, które mogą pomóc poprowadzić cię we właściwym kierunku.
Oto niektóre z najważniejszych problemów związanych z SEO podczas migracji do frameworka JavaScript.
Zachowaj ważne adresy URL
Googlebot i inne roboty indeksujące wyszukiwarki kojarzą treść witryny z adresami URL — w ten sposób prowadzą do Ciebie linki w swoich wynikach wyszukiwania — ale struktury JavaScript mogą zerwać więź między statycznymi adresami URL a treścią, dynamicznie aktualizując strony.
Dotyczy to zwłaszcza aplikacji jednostronicowych (SPA), które wymagają specjalnego traktowania, aby zapewnić, że wszystkie ważne adresy URL z poprzedniej witryny zostaną zachowane i pozostaną widoczne dla Googlebota, aby chronić Twoją obecną obecność w SERP.
Nie daj się zwieść, jeśli Twoja strona główna nadal pojawia się w odpowiednim rankingu – może to oznaczać, że Google pomyślnie indeksuje stronę główną Twojego SPA, ale nie znajduje treści wyświetlanej dynamicznie po stronie klienta.
Włącz dostęp dla robota
Chodzi o coś więcej niż tylko odblokowanie robotów wyszukiwarek w pliku robots.txt. Potrzebujesz ich, aby móc indeksować witrynę i wyświetlać zawartość — a do tego prawdopodobnie będziesz potrzebować jakiejś formy renderowania po stronie serwera.
Wdrażając renderowanie po stronie serwera lub renderowanie wstępne, dajesz robotom wyszukiwania taką wersję treści, jaka pojawia się po wykonaniu dowolnego kodu JavaScript, co eliminuje obciążenie zasobów polegające na proszeniu robotów o samodzielne renderowanie treści strony.
To nie tylko sprawia, że każda strona jest widoczna dla robotów, ale może również zwiększyć liczbę stron i poziomów hierarchii witryny, które są indeksowane, zmniejszając zapotrzebowanie na budżet indeksowania na stronę.
Popraw indeksowanie
Możesz jeszcze bardziej pomóc robotom, prezentując informacje w łatwy do przyswojenia sposób. Pomyśl o tym, wdrażając funkcje JavaScript, takie jak zdarzenia onclick i nieskończone przewijanie stronicowania.
Pamiętając o tym, co naprawdę potrafią roboty, możesz upewnić się, że Twoje treści są dla nich widoczne w ramach tych możliwości. W nagrodę więcej treści prawdopodobnie zostanie zindeksowanych, zindeksowanych i uszeregowanych.
Dodatkową zaletą jest to, że tworząc przyjazną dla robotów wersję swojej witryny, możesz również poprawić dostępność dla niektórych odwiedzających, którzy mogą nie mieć działającego JavaScript na swoim urządzeniu podczas odwiedzania Twojej witryny.
[Studium przypadku] Zwiększ widoczność, poprawiając indeksowanie witryny przez Googlebota
Przekieruj stare adresy URL
Jeśli nie planujesz zachowywać starych adresów URL w stanie, w jakim są, ale Twoja obecność w wyszukiwarkach jest silna, rozważ wdrożenie stałych przekierowań, aby wskazać robotom najbardziej pasujący odpowiednik w nowej mapie witryny.
Zachowuje to autorytet domeny i może chronić twoje rankingi, przynajmniej do czasu, gdy wszelkie nowo opublikowane treści zostaną w pełni zindeksowane i zindeksowane, w którym to momencie możesz zdecydować się na usunięcie starszych przekierowań lub nie, jeśli te stare strony nie przynoszą już znacznego ruchu.
Używaj spójnych linków wewnętrznych
Ponownie chodzi o dynamiczne ładowanie treści. Struktury JavaScript mogą uwolnić kilka fajnych możliwości, takich jak możliwość pobierania danych z zewnętrznego zasobu i używania ich do aktualizacji bieżącej strony, zamiast przechodzenia do innego adresu URL.
W przypadku SEO lepiej jest utrzymywać zawartość względnie statyczną i ładować inny adres URL w przypadku znacznej zmiany strony. Roboty indeksujące lepiej rozumieją to podejście, mogą lepiej odwzorować Twoją witrynę jako całość i mają większe szanse na odwiedzenie i prawidłowe zinterpretowanie nowej strony.
Słaba dyscyplina w zakresie wewnętrznych połączeń jest główną pułapką wielu migracji. Może to sprawić, że niektóre strony będą znacznie trudniejsze do przemierzenia dla robotów i wysyła mylące sygnały dotyczące względnego znaczenia niektórych stron w porównaniu z innymi.
Znaczenie spójności
Poza linkami wewnętrznymi staraj się być konsekwentnym w odniesieniu do wszystkich sygnałów wysyłanych do wyszukiwarek. Jest to szczególnie ważne, jeśli Twoja witryna ładuje tylko część jej treści za pośrednictwem struktury JavaScript, ponieważ należy upewnić się, że strony JavaScript ładują się i działają podobnie do wszystkich stron HTML lub PHP w Twojej witrynie.
Przykładem może być rozwiązywanie adresów URL z ukośnikiem końcowym i bez niego (bez względu na to, czy jest to rozwiązane, czy przekierowania powinny być spójne we wszystkich obszarach witryny), a także najlepsze praktyki SEO, takie jak implementacja tagów kanonicznych (które również powinny być spójne pod względem treść jest uważana za kanoniczną).
Lepiej zapobiegać niż leczyć, zwłaszcza jeśli chodzi o rankingi wyszukiwania. Spróbuj więc zrozumieć nie tylko sposób wyświetlania treści w Twojej witrynie, ale także sposób jej wyświetlania, czy to przez renderowanie po stronie klienta, czy po stronie serwera – i czy Twoja migracja do JavaScript wpłynie na widoczność treści w Twojej witrynie, przy następnym indeksowaniu.
[Studium przypadku] Nie pozwól, aby przeprojektowanie negatywnie wpływało na SEO
Czy to się kiedykolwiek zmieni?
Dynamiczne renderowanie nie jest przyjacielem SEO ze względu na stosunkowo prostą naturę robotów wyszukiwania. W przyszłości możemy zobaczyć bardziej złożonego i wydajnego Googlebota, który będzie w stanie obejść niektóre z tych problemów, ale na razie zadaniem webmasterów jest dostarczanie treści w możliwie najbardziej jadalny sposób.
Odnosi się to podczas planowania, wdrażania i zarządzania każdą witryną internetową, która opiera się na obecności w wyszukiwarkach. Ale ma to ogromne znaczenie podczas dużych aktualizacji, uaktualnień i migracji, w tym migracji do frameworka JavaScript.
Mając na uwadze niektóre z opisanych powyżej pułapek i najlepszych praktyk, możesz utrzymać swoje ambicje SEO na czele migracji witryny i uniknąć koszmarnego scenariusza, w którym duża, dochodowa witryna zniknie z SERP z dnia na dzień.