日誌文件分析案例研究

已發表: 2020-04-07

日誌文件分析需要時間,使用 OnCrawl 的時間更少,但仍然需要時間。 SEO 有一長串優化和審計的清單,而且由於日誌文件是清單上較重的項目之一,它有一個令人討厭的習慣,即爬到所述清單的底部。

拖延是人的天性,但是當你知道什麼在等著你時會更容易開始。

最近在 97 樓進行的日誌文件分析使他們的客戶在分析完成後的 30 天內有機收入增加了 25%

運行日誌文件分析之前需要了解的內容

如果您是日誌文件的新手,那麼本文不會全面介紹基礎知識。 相反,請閱讀這篇文章。

簡而言之,日誌文件分析本質上是對已歸檔在您網站上的 Web 服務器日誌的審查。 日誌記錄與您的網站交互的機器人(如 Google)實例。

許多人問,“我應該什麼時候運行日誌文件分析?” 正確的答案很簡單,“是的”。

原因如下:可抓取性是任何技術 SEO 推廣的基礎。 如果沒有可抓取性,網站將不會被編入索引。 沒有被索引,他們就不會排名。 沒有排名……你明白了。

有幾種方法可以提高網站的可爬性,但也許沒有比日誌文件分析更有效和更全面的了。 這就是為什麼它應該作為任何技術 SEO 推廣的支柱。 因此,無論是在技術推廣初期,還是您已經進入成熟的活動多年(但最近沒有查看您的日誌文件),都該進行日誌文件分析了。

對於仍然在線運行日誌文件分析的任何人,我將添加此建議。 對於任何認為他們已經完成了書中所有內容但仍在努力獲得第 1 頁上那個頑固的關鍵字的 SEO 的人:運行該日誌文件分析。

Oncrawl 日誌分析器

用於機器人監控和爬網預算優化的日誌文件分析。 檢測網站健康問題並提高您的抓取頻率。
學到更多

日誌文件分析在行動:觀察結果

查看您的日誌文件可以產生無數的發現,包括:

  • 機器人抓取量
  • 抓取預算浪費
  • 302 重定向
  • 響應代碼錯誤
  • 抓取優先級
  • 重複網址抓取
  • 上次抓取日期

但這些發現本身並沒有幫助。 它需要一個可以看到過去問題的 SEO 來創建能夠充分利用日誌文件分析的解決方案。

在 97 樓,我們有一個電子商務客戶,以高價銷售獨特的產品。 幾乎所有產品都是獨一無二的,當產品售出時,我們的客戶正在從網站上刪除該頁面。 這使得任何類型的頁面級增長變得困難。 它還引起了很多與 Googlebot 的可抓取性混淆。

不用說,在我們參與之前,他們正在與穀歌進行一場艱苦的戰鬥。 與客戶一起入職時,我們立即運行了日誌文件分析。

我們的日誌文件分析產生了許多發現(正如他們通常所做的那樣),但以下三個比較突出:

  1. 大量冗餘子文件夾被谷歌頻繁爬取
  2. 許多返回 404 錯誤的頁面仍在被 Googlebot 抓取。 由於它們已從網站中刪除,因此在我們的初始網站抓取中無法找到它們
  3. 不重要的子文件夾被抓取的次數超過了關鍵登陸頁面

如前所述,日誌文件分析不會在分析結束時停止。 它繼續通過行動項目並進入實施和執行。 在我們客戶的情況下,他們將 Google 的抓取預算浪費在根本無法解決問題的網頁上。

我們的新頁面得到了很好的優化,但沒有得到我們需要的牽引力來產生任何有意義的排名。

當我們從日誌文件分析中發現這三個問題時,為什麼我們的排名沒有更高是有道理的。 Google 正在使用我們的抓取預算來查看優化不佳或根本沒有優化的頁面。

為了獲得能夠帶來我們需要看到成功的流量的排名,我們首先需要從日誌文件分析中解決項目。

在這種情況下,很明顯爬網預算被浪費在不重要的頁面上,這是日誌文件分析的常見發現。

來自日誌文件分析的解決方案

解決冗餘子文件夾中的爬網浪費

因為我們的客戶是一個電子商務網站,所以我們看到了大量在整個網站上重複的子文件夾。 這些子文件夾大多是類別頁面,它們太舊了,以至於它們所保存的信息已經過時了,幾乎不可能有機地發現。

但 Googlebot 不僅發現了它們。 它經常回來重新抓取它們,佔用我們的抓取預算。

我們的解決方案是刪除這些多餘的子文件夾並將其重定向到更合適和相關的子文件夾。 我們剛剛推出了一個完全修改過的類別結構,旨在幫助我們對一些更大的關鍵字進行排名。 你能猜到我們把這些多餘的子頁面重定向到哪裡了嗎?

將這些舊的和被遺忘的頁面重定向到更新、更優化的對應頁面讓我們在 SERP 中佔據優勢。

[案例研究] 使用日誌文件分析優化自然搜索流量

國家商業研究所重新設計了他們的網站,發現自然搜索流量有所下降。 本案例研究重點介紹 NBRI 如何在重新設計後使用 OnCrawl 優化其 SEO 性能。
閱讀案例研究

更正不重要的子文件夾中的爬網浪費

這一點似乎與關於冗餘子文件夾的最後一點相似。 冗餘子文件夾被遺忘並丟失了我們當前版本的副本。 冗餘子文件夾和不重要子文件夾之間的區別在於,我們現在討論的子文件夾仍然相關,但不是用於搜索的基礎頁面。

這裡的解決方案絕非簡單。 由於我們不知道這種情況的根本原因,我們需要製定一個廣泛的解決方案,其中涉及一點點,包括:

  • 將戰略性內部鏈接從我們的低優先級(但高度抓取)頁面插入到我們的高優先級、SEO 優化頁面
  • 重新排列站點地圖以在 .xml 文件的較高位置包含更重要的頁面
  • 修改我們更高優先級頁面上的 rel=”canonical” 和元機器人信息
  • 重新訪問 robots.txt 文件以確保沒有任何不應該被阻止的內容(大型電子商務網站尤其需要檢查這一點。)
  • 刪除和移除不必要的頁面

清除死頁

我們已經進行了一次站點審核,我們在其中爬取了站點,並發現了內部站點爬取可以識別的所有 404 錯誤。

但這就是日誌文件分析的美妙之處,您不會從自己的內部爬網中提取有限的數據。 您正在查看 Google 所看到的內容。 從本質上講,這是從局外人的角度進行的現場審核——最重要的局外人:谷歌。

這裡的修復很簡單,這有助於彌補在前一點上花費的所有時間。 我們 301 將這些舊的孤立頁面重定向到網站上經過優化的對應頁面。 完畢。

日誌文件分析的結果

我們對該客戶的日誌文件分析中最好的部分是它為他們贏得的快速結果。

如前所述,在實施上述行動項目後的短短 30 天內,它為客戶帶來了 25% 的有機收入增長。

在此期間,我們還看到自然流量的轉化率略有增加。 因為這種上升發生在淡季,所以這裡沒有季節性因素。 轉化率增加的事實意味著流量不僅數量更多,而且還是合格的流量。

流量可能更合格,因為在有效地重新分配了我們客戶網站與 Google 的抓取預算後,我們將注意力吸引到更多基於意圖的頁面,從而在更高意圖的關鍵字上獲得更好的排名。 這意味著我們在漏斗中將用戶吸引到正確的頁面,以幫助他們完成他們的旅程。

這聽起來可能很愚蠢,但在 97 樓,我們的信條是我們讓互聯網變得更美好。 日誌文件分析這樣做是因為它們彌補了 Google 不准確抓取的缺點。 這將更高質量的頁面帶到了 SERP 的頂部,使每個人的互聯網搜索體驗都變得更好。

下次您遇到可抓取性問題時,我希望您不要三思而後行,執行日誌文件分析、提出解決方案、查看它們。 您會看到您的網站獲得更多流量和轉化。

開始免費試用