SEO-Überlegungen bei der Migration zu einem JavaScript-Framework

Veröffentlicht: 2022-04-19

Alle größeren Aktualisierungen oder Änderungen an Ihrer Website sollten immer unter Berücksichtigung von SEO-Überlegungen vorgenommen werden. Von robots.txt-Fehlern bis hin zu schlecht implementierten Seitenumleitungen ist es allzu leicht, dass Ihre Suchrankings – im wahrsten Sinne des Wortes – über Nacht verschwinden.

Dies gilt auch für die Migration Ihrer Website zu einem JavaScript-Framework. Mit etwas sorgfältiger Planung können Sie sicherstellen, dass Ihre Website für die Suchmaschinen-Roboter sichtbar bleibt, die üblichen Risiken und Fallstricke vermeiden, die zu Verkehrsverlusten führen, und Ihre Website für weiteres zukünftiges Wachstum vorbereiten.

Es ist ein großes und komplexes Thema mit vielen technischen Details, die Sie während Ihrer gesamten Website-Migration im Auge behalten sollten. Es gibt jedoch einige häufige Fehler, die Sie vermeiden sollten, sowie einige übergreifende Prinzipien, die Ihnen helfen können, in die richtige Richtung zu lenken.

Hier sind einige der wichtigsten SEO-Bedenken bei der Migration zu einem JavaScript-Framework.

Bewahren Sie wichtige URLs auf

Googlebot und die anderen Suchmaschinen-Crawler verknüpfen Website-Inhalte mit URLs – so verlinken sie von ihren Suchergebnissen aus zu Ihnen – aber JavaScript-Frameworks können die Bindung zwischen statischen URLs und Inhalten durchbrechen, indem Seiten dynamisch aktualisiert werden.

Dies gilt insbesondere für Single Page Applications (SPAs), die eine besondere Behandlung benötigen, um sicherzustellen, dass alle wichtigen URLs der früheren Website erhalten bleiben und für den Googlebot sichtbar bleiben, um Ihre bestehende Präsenz in den SERPs zu schützen.

Lassen Sie sich nicht täuschen, wenn Ihre Homepage immer noch in ihrem rechtmäßigen Ranking erscheint – dies könnte ein Zeichen dafür sein, dass Google die Homepage Ihres SPA erfolgreich crawlt, aber den dynamisch clientseitig bereitgestellten Inhalt nicht findet.

Crawler-Zugriff aktivieren

Dabei geht es um mehr als nur das Entsperren der Suchmaschinen-Crawler in Ihrer robots.txt-Datei. Sie benötigen sie, um Ihre Website zu crawlen und Ihre Inhalte anzuzeigen – und dafür benötigen Sie wahrscheinlich eine Form von serverseitigem Rendering.

Durch die Implementierung von serverseitigem Rendering oder Pre-Rendering geben Sie den Suchrobotern eine Version Ihres Inhalts, wie sie nach der Ausführung von JavaScripts angezeigt wird, wodurch die Ressourcenbelastung entfällt, die erforderlich ist, um die Roboter zu bitten, den Seiteninhalt selbst zu rendern.

Dies macht nicht nur jede Seite für die Crawler sichtbar, sondern kann auch die Anzahl der Seiten und die Ebenen Ihrer Website-Hierarchie erhöhen, die indiziert werden, indem das Crawl-Budget der Roboter pro Seite weniger beansprucht wird.

Verbessern Sie die Crawlbarkeit

Sie können den Robotern noch mehr helfen, indem Sie Informationen auf leicht verständliche Weise präsentieren. Denken Sie darüber nach, wenn Sie JavaScript-Funktionen wie Onclick-Ereignisse und unendlich scrollende Paginierung implementieren.

Indem Sie bedenken, was die Roboter tatsächlich tun können, können Sie sicherstellen, dass Ihre Inhalte für sie innerhalb dieser Fähigkeiten sichtbar sind. Als Belohnung werden wahrscheinlich mehr Ihrer Inhalte gecrawlt, indexiert und eingestuft.

Ein zusätzlicher Bonus ist, dass Sie durch die Erstellung einer Crawler-freundlichen Version Ihrer Website auch die Zugänglichkeit für einige menschliche Besucher verbessern können, auf deren Geräten JavaScript möglicherweise nicht funktioniert, wenn sie Ihre Website besuchen.

[Fallstudie] Erhöhen Sie die Sichtbarkeit, indem Sie die Website-Crawlbarkeit für den Googlebot verbessern

Paris Match stand vor einem klaren Problem: Es musste seine Website gründlich prüfen, seine Stärken und Schwächen identifizieren, seine Prioritäten festlegen und die Blockierungsfaktoren für das Crawlen von Google beheben. Die SEO-Probleme der Website von Paris Match sind die gemeinsamen Probleme von Nachrichtenseiten.
Lesen Sie die Fallstudie

Alte URLs umleiten

Wenn Sie nicht vorhaben, alte URLs genau so zu erhalten, wie sie sind, aber Sie haben eine starke Suchpräsenz, sollten Sie die Implementierung dauerhafter Weiterleitungen in Betracht ziehen, um die Robots auf das am ehesten passende Äquivalent in Ihrer neuen Sitemap zu verweisen.

Dies bewahrt die Domainautorität und kann Ihre Rankings schützen, zumindest bis alle neu veröffentlichten Inhalte vollständig gecrawlt und indexiert sind. An diesem Punkt können Sie sich entscheiden, die älteren Weiterleitungen zu entfernen oder auch nicht, wenn diese alten Seiten keinen nennenswerten Traffic mehr bringen.

Verwenden Sie konsistente interne Links

Auch hier geht es um das dynamische Laden von Inhalten. JavaScript-Frameworks können einige coole Funktionen freisetzen, z. B. die Möglichkeit, Daten von einer externen Ressource abzurufen und sie zum Aktualisieren der aktuellen Seite zu verwenden, anstatt zu einer anderen URL zu navigieren.

Für SEO ist es besser, den Inhalt relativ statisch zu halten und eine andere URL zu laden, wenn die Seite wesentlich geändert wird. Die Crawler verstehen diesen Ansatz besser, können Ihre Website insgesamt besser abbilden und werden die neue Seite eher besuchen und richtig interpretieren.

Mangelnde Disziplin bei der internen Verlinkung ist ein großer Fallstrick vieler Migrationen. Es kann dazu führen, dass einige Seiten für die Roboter viel schwieriger zu crawlen sind, und es werden verwirrende Signale über die relative Wichtigkeit einiger Seiten im Vergleich zu anderen gesendet.

Die Bedeutung der Konsistenz

Versuchen Sie über interne Links hinaus, bei allen Signalen, die Sie an die Suchmaschinen senden, konsistent zu sein. Dies gilt insbesondere, wenn Ihre Website nur einen Teil ihres Inhalts über das JavaScript-Framework lädt, da Sie sicherstellen sollten, dass die JavaScript-Seiten ähnlich wie alle HTML- oder PHP-Seiten auf Ihrer Website geladen werden und funktionieren.

Beispiele hierfür können das Auflösen von URLs mit und ohne nachgestellten Schrägstrich (unabhängig davon, ob diese Auflösungen oder Weiterleitungen in allen Bereichen Ihrer Website konsistent sein sollten) sowie SEO-Best Practices wie die Implementierung kanonischer Tags (die wiederum in Bezug auf die konsistent sein sollten) umfassen Inhalte gelten als kanonisch).

Vorbeugen ist besser als heilen, insbesondere wenn es um das Ranking in den Suchergebnissen geht. Versuchen Sie also nicht nur zu verstehen, wie Inhalte auf Ihrer Website angezeigt werden, sondern auch, wie sie angezeigt werden, sei es durch clientseitiges oder serverseitiges Rendering – und ob Ihre Migration zu JavaScript die Sichtbarkeit von Inhalten auf Ihrer Website beeinträchtigt. das nächste Mal, wenn es gecrawlt wird.

[Fallstudie] Verhindern Sie, dass Ihr Redesign Ihre SEO benachteiligt

Ein Jahr nach der Neugestaltung der Website stellte EasyCash schnell fest, dass die erhoffte Leistung nicht gegeben war. Sie identifizierten und lösten mehrere SEO-Hürden.
Lesen Sie die Fallstudie

Wird sich das jemals ändern?

Dynamisches Rendering ist aufgrund der relativ einfachen Natur der Suchroboter kein Freund von SEO. In Zukunft werden wir vielleicht einen komplexeren und leistungsfähigeren Googlebot sehen, der einige dieser Probleme umgehen kann, aber im Moment liegt die Verantwortung bei den Webmastern, Inhalte so gut essbar wie möglich bereitzustellen.

Dies gilt für die gesamte Planung, Implementierung und Verwaltung jeder Website, die auf eine Suchpräsenz angewiesen ist. Aber es ist von größter Bedeutung bei größeren Updates, Upgrades und Migrationen, einschließlich der Migration zu einem JavaScript-Framework.

Indem Sie einige der oben beschriebenen Fallstricke und Best Practices berücksichtigen, können Sie Ihre SEO-Ambitionen bei Ihrer Website-Migration im Vordergrund halten und das Alptraumszenario vermeiden, dass eine große, profitable Website über Nacht aus den SERPs verschwindet.