JavaScriptフレームワークに移行する際のSEOの考慮事項
公開: 2022-04-19ウェブサイトの主要な更新や変更は、常にSEOの考慮事項を念頭に置いて行う必要があります。 robots.txtエラーから、実装が不十分なページリダイレクトまで、検索ランキングが文字通り一晩で消えるのを見るのは簡単です。
これは、WebサイトをJavaScriptフレームワークに移行する場合にも同様に当てはまります。 慎重に計画することで、サイトが検索エンジンロボットに見えるようにし、トラフィックの損失につながる一般的なリスクと落とし穴を回避し、サイトを将来の継続的な成長に備えることができます。
これは大きくて複雑な問題であり、Webサイトの移行中に留意すべき技術的な詳細がたくさんあります。 しかし、避けるべきいくつかの一般的な間違いと、正しい方向に導くのに役立ついくつかの包括的な原則があります。
JavaScriptフレームワークに移行する際のSEOの主な懸念事項は次のとおりです。
重要なURLを保持する
Googlebotやその他の検索エンジンクローラーは、ウェブサイトのコンテンツをURLに関連付けます。これは、検索結果からリンクする方法ですが、JavaScriptフレームワークは、ページを動的に更新することで、静的URLとコンテンツの結びつきを断ち切ることができます。
これは、SERP内の既存のプレゼンスを保護するために、以前のWebサイトからの重要なURLが保持され、Googlebotに引き続き表示されるようにするために、特別な処理が必要なシングルページアプリケーション(SPA)に特に当てはまります。
ホームページがまだ正当なランキングに表示されている場合でも、だまされないでください。これは、GoogleがSPAのホームページを正常にクロールしているが、クライアント側で動的に提供されるコンテンツを見つけられていないことを示している可能性があります。
クローラーアクセスを有効にする
これは、robots.txtファイルで検索エンジンのクローラーのブロックを解除するだけではありません。 サイトをクロールしてコンテンツを表示できるようにするためには、それらが必要です。そのためには、何らかの形式のサーバー側レンダリングが必要になる可能性があります。
サーバー側のレンダリングまたは事前レンダリングを実装することで、JavaScriptの実行後に表示されるコンテンツのバージョンを検索ロボットに提供し、ロボットにページコンテンツをレンダリングするように依頼するリソースの負担を取り除きます。
これにより、各ページがクローラーに表示されるだけでなく、ページあたりのロボットのクロール予算への要求が少なくなるため、インデックスに登録されるページ数とWebサイト階層のレベルを増やすことができます。
クロール性を向上させる
わかりやすい方法で情報を提示することで、ロボットにさらに支援を与えることができます。 onclickイベントや無限にスクロールするページネーションなどのJavaScript機能を実装する場合は、このことを考慮してください。
ロボットが実際に何ができるかを覚えておくことで、これらの機能の範囲内でロボットにコンテンツが表示されるようにすることができます。 報酬として、より多くのコンテンツがクロールされ、インデックスに登録され、ランク付けされる可能性があります。
追加のボーナスは、クローラーに適したバージョンのWebサイトを作成することで、サイトにアクセスしたときにデバイスでJavaScriptが機能していない可能性のある一部の人間の訪問者のアクセシビリティも向上させる可能性があることです。
[ケーススタディ]Googlebotのウェブサイトのクロール性を改善して可視性を向上させる
古いURLをリダイレクトする
古いURLをそのまま保持する予定はないが、強力な検索プレゼンスがある場合は、永続的なリダイレクトを実装して、ロボットが新しいサイトマップ内で最も一致する同等のURLを指すようにすることを検討してください。
これにより、ドメイン権限が保持され、少なくとも新しく公開されたコンテンツが完全にクロールされてインデックスが作成されるまで、ランキングを保護できます。その時点で、古いページが大量のトラフィックをもたらさなくなった場合は、古いリダイレクトを削除するかどうかを決定できます。
一貫した内部リンクを使用する
繰り返しますが、これはコンテンツの動的ロードに関するものです。 JavaScriptフレームワークは、別のURLに移動するのではなく、外部リソースからデータを取得し、それを使用して現在のページを更新する機能など、いくつかの優れた機能を解き放つことができます。
SEOの場合、ページを大幅に変更するときは、コンテンツを比較的静的に保ち、別のURLをロードすることをお勧めします。 クローラーはこのアプローチをよりよく理解し、Webサイト全体をより適切にマッピングでき、新しいページにアクセスして正しく解釈する可能性が高くなります。
内部リンクに関する不十分な規律は、多くの移行の大きな落とし穴です。 ロボットがクロールするのがはるかに困難なページを残す可能性があり、他のページと比較して、一部のページの相対的な重要性について紛らわしい信号を送信します。
一貫性の重要性
内部リンクを超えて、検索エンジンに送信するすべての信号について一貫性を保つようにしてください。 これは、JavaScriptページがサイト上のHTMLまたはPHPページと同様に読み込まれ、機能することを確認する必要があるため、WebサイトがJavaScriptフレームワークを介してコンテンツの一部のみを読み込む場合に特に当てはまります。
この例には、末尾のスラッシュがある場合とない場合のURLの解決(これが解決されるかリダイレクトがWebサイトのすべての領域で一貫している必要があるかどうか)や、正規タグの実装などのSEOのベストプラクティス(これも一貫している必要があります)が含まれます。コンテンツは正規と見なされます)。
特に検索ランキングが関係している場合、予防は治療よりも優れています。 したがって、コンテンツがWebサイトにどのように表示されるかだけでなく、コンテンツがクライアント側またはサーバー側のどちらで表示されるか、JavaScriptへの移行がWebサイトのコンテンツの表示に影響するかどうかを理解するようにしてください。次回クロールされるとき。
[ケーススタディ]あなたの再設計があなたのSEOにペナルティを課さないようにしてください
これは変わるのでしょうか?
検索ロボットは比較的単純な性質を持っているため、動的レンダリングはSEOの友ではありません。 将来的には、これらの問題のいくつかを回避できる、より複雑で有能なGooglebotが登場する可能性がありますが、現時点では、可能な限り最も食用の方法でコンテンツを提供する責任はウェブマスターにあります。
これは、検索プレゼンスに依存するWebサイトの計画、実装、および管理全体に当てはまります。 ただし、JavaScriptフレームワークへの移行を含む、主要な更新、アップグレード、および移行では、これが最も重要です。
上記の落とし穴とベストプラクティスのいくつかを念頭に置くことで、SEOの野心をウェブサイトの移行の最前線に保ち、大規模で収益性の高いウェブサイトが一晩でSERPから消えるという悪夢のシナリオを回避できます。