ログファイル分析のケーススタディ
公開: 2020-04-07ログファイルの分析には時間がかかり、OnCrawlの方が時間がかかりませんが、それでも時間がかかります。 SEOには、最適化と監査の長いリストがあり、ログファイルはリストの最も重い項目の1つであり、リストの一番下に忍び寄るという厄介な習慣があります。
先延ばしにするのは人間の本性ですが、何があなたを待っているかを知っていると、始めるのが簡単になります。
97階での最近のログファイル分析により、分析が完了してからわずか30日でクライアントのオーガニック収益が25%増加しました。
ログファイル分析を実行する前に知っておくべきこと
ログファイルを初めて使用する場合、この記事では基本を完全に説明しているわけではありません。 代わりに、この記事を読んでください。
簡潔にするために、ログファイル分析は基本的にサイトにファイルされたWebサーバーログのレビューであることに注意してください。 ログには、サイトとやり取りするボット(Googleなど)のインスタンスが記録されます。
多くの人が「ログファイル分析をいつ実行する必要がありますか?」と尋ねます。 そして、正解は単に「はい」です。
その理由は次のとおりです。クロール可能性は、技術的なSEOロールアウトの基盤です。 クロール可能性がないと、サイトはインデックスに登録されません。 インデックスを作成しないと、ランク付けされません。 そしてランキングなしで…あなたはポイントを得る。
サイトのクロール可能性を強化する方法はいくつかありますが、おそらくログファイル分析ほど効果的で包括的なものはありません。 これが、技術的なSEOロールアウトのバックボーンとして機能する必要がある理由です。 したがって、技術的な展開の開始時であろうと、成熟したキャンペーンを始めたばかりであろうと(ただし、最近ログファイルを調べていない場合)、ログファイル分析の時間です。
また、ログファイル分析の実行についてまだ検討中の方のために、このアドバイスを追加します。 本のすべてを実行したと信じているが、1ページでその頑固なキーワードを取得するのにまだ苦労しているSEOの場合、そのログファイル分析を実行します。
オンクロールログアナライザ
実行中のログファイル分析:調査結果の観察
ログファイルを確認すると、次のような無数の結果が得られます。
- ボットクロールボリューム
- 予算の無駄をクロール
- 302リダイレクト
- 応答コードエラー
- クロールの優先順位
- 重複したURLクロール
- 最終クロール日
しかし、これらの調査結果だけでは役に立ちません。 ログファイル分析を最大限に活用するソリューションを作成するには、過去の問題を確認できるSEOが必要です。
97階には、高値札のユニークな商品を販売するeコマースクライアントがいます。 事実上すべての製品はユニークであり、製品が販売されたとき、私たちのクライアントはサイトからページを削除していました。 これにより、あらゆる種類のページレベルの成長が困難になりました。 また、Googlebotとのクロール可能性の混乱を引き起こしました。
言うまでもなく、私たちが関与する前に、彼らはグーグルとの困難な戦いを戦っていました。 クライアントにオンボーディングすると、すぐにログファイル分析を実行しました。
私たちのログファイル分析では、(通常どおり)多くの結果が得られましたが、次の3つが際立っていました。
- 多数の冗長サブフォルダがGoogleによって頻繁にクロールされました
- 404エラーを返した多くのページは、まだGooglebotによってクロールされていました。 それらはサイトから削除されたため、最初のサイトクロールでは見つかりませんでした
- 重要でないサブフォルダーは、主要なランディングページよりも多くクロールされていました
前述のように、分析が終了してもログファイルの分析は停止しません。 それは、アクションアイテムを経て、実装と実行に進みます。 私たちのクライアントの状況では、彼らは単に針を動かさなかったページでグーグルからのクロール予算を浪費していました。
私たちの新しいページは十分に最適化されていましたが、意味のあるランキングをもたらすために必要な牽引力を得ていませんでした。
ログファイルの分析からこれらの3つの問題を発見したとき、ランキングが高くなかった理由は理にかなっています。 Googleはクロール予算を使用して、十分に最適化されていないページ、またはまったく最適化されていないページを調べていました。
成功を確認するために必要なトラフィックをもたらすランキングを取得するには、最初にログファイル分析からアイテムを解決する必要がありました。
この場合、クロールの予算が重要でないページで無駄になっていることは明らかでした。これは、ログファイル分析でよく見られる結果です。
ログファイル分析からのソリューション
冗長サブフォルダのクロール廃棄物への対処
クライアントはeコマースサイトであったため、サイト全体で複製された多数のサブフォルダーが見つかりました。 これらのサブフォルダーはほとんどが非常に古いカテゴリページであったため、保持している情報は非常に古く、有機的に発見することはほぼ不可能でした。
しかし、Googlebotはそれらを発見しただけではありません。 それは彼らを再クロールするために頻繁に戻ってきて、私たちのクロール予算を食いつぶしました。
私たちの解決策は、これらの冗長なサブフォルダーを削除して、より適切で関連性のあるサブフォルダーにリダイレクトすることでした。 いくつかのより大きなキーワードのランク付けに役立つはずの完全に改訂されたカテゴリ構造を立ち上げたところです。 これらの冗長なサブページをどこにリダイレクトしたか推測できますか?
これらの古くて忘れられていたページを、より新しく、より最適化された対応するページにリダイレクトすることで、SERPに足を踏み入れることができました。
[ケーススタディ]ログファイル分析を使用してオーガニック検索トラフィックを最適化する
重要でないサブフォルダーのクロールの無駄を修正する
この点は、冗長サブフォルダーに関する最後の点と似ているようです。 冗長なサブフォルダーは忘れられ、現在のバージョンの複製が失われました。 冗長なサブフォルダーと重要でないサブフォルダーの違いは、現在、関連性はあるが、検索の基礎となるページではないサブフォルダーについて話していることです。
ここでの解決策は単純ではありませんでした。 状況の根本的な原因がわからないため、次のようなすべてのことを少し含む幅広い解決策を処方する必要がありました。
- 優先度の低い(ただしクロールが高い)ページから優先度の高いSEO最適化ページへの戦略的な内部リンクの挿入
- サイトマップを再配置して、.xmlファイルの上位にあるより重要なページを含める
- 優先度の高いページのrel=” canonical”およびメタロボット情報の改訂
- robots.txtファイルを再確認して、ブロックされるべきではないものがブロックされていないことを確認します(大規模なeコマースサイトは特にこれをチェックする必要があります)。
- 不要なページの削除と削除
デッドページのクリア
すでにサイト監査を実施し、サイトをクロールして、内部サイトクロールで識別できる404エラーをすべて見つけました。
しかし、それはログファイル分析の美しさです。自分の内部クロールから限られたデータを取得することはありません。 あなたはGoogleが見ているものを正確に見ています。 基本的に、これは部外者の視点からのサイト監査です。最も重要な部外者であるGoogleです。
ここでの修正は簡単で、前のポイントで費やしたすべての時間を埋め合わせるのに役立ちました。 これらの古い孤立したページを、サイト上の最適化された対応するページに301リダイレクトしました。 終わり。
ログファイル分析の結果
このクライアントのログファイル分析の最良の部分は、クライアントが得た迅速な結果でした。
前述のように、上記のアクションアイテムの実装後、わずか30日でクライアントにオーガニック収益が25%増加しました。
この間、オーガニックトラフィックのコンバージョン率もわずかに上昇しました。 この上昇は遅い季節に起こったので、ここでは季節性はありません。 また、コンバージョン率が上昇したということは、トラフィックの数が増えただけでなく、適格なトラフィックでもあったことを意味します。
クライアントのサイトがGoogleで持っていたクロール予算を効果的に再配分した後、よりインテントベースのページに注目し、より高いインテントのキーワードでより良いランキングを獲得したため、トラフィックはより適格である可能性があります。 これは、ユーザーの移動を支援するために、ユーザーを目標到達プロセスの下位の適切なページに誘導することを意味しました。
幸福に聞こえるかもしれませんが、97階では、インターネットをより良い場所にすることが私たちの信条です。 ログファイル分析は、Googleの不正確なクロールの欠点を補うため、これを行います。 これにより、SERPのトップに高品質のページが表示され、インターネット検索エクスペリエンスがすべての人にとってはるかに優れたものになります。
次回、クロール可能性の問題に直面したときは、ログファイル分析の実行、解決策の提示、それらの確認について、二度と考えないでください。 あなたのサイトがより多くのトラフィックとコンバージョンを獲得するのを見るでしょう。