กรณีศึกษาการวิเคราะห์ไฟล์บันทึก

เผยแพร่แล้ว: 2020-04-07

การวิเคราะห์ไฟล์บันทึกใช้เวลา โดยใช้เวลาน้อยลงด้วย OnCrawl แต่อย่างไรก็ตาม SEO มีรายการการเพิ่มประสิทธิภาพและการตรวจสอบที่ยาวเหยียด และด้วยล็อกไฟล์เป็นหนึ่งในรายการที่หนักกว่าในรายการ จึงมีนิสัยที่น่ารังเกียจที่จะไปอยู่ด้านล่างสุดของรายการดังกล่าว

เป็นธรรมชาติของมนุษย์ที่จะผัดวันประกันพรุ่ง แต่จะง่ายกว่าที่จะเริ่มต้นเมื่อคุณรู้ว่าอะไรกำลังรอคุณอยู่

การวิเคราะห์ไฟล์บันทึกล่าสุดที่ชั้น 97 ทำให้ลูกค้าของพวกเขามี รายได้เพิ่มขึ้น 25% ในเวลาเพียง 30 วันหลังจากการวิเคราะห์ เสร็จสิ้น

สิ่งที่คุณต้องรู้ก่อนเรียกใช้การวิเคราะห์ไฟล์บันทึก

หากคุณเพิ่งเริ่มใช้ไฟล์บันทึก บทความนี้ไม่ได้ครอบคลุมเนื้อหาพื้นฐานทั้งหมด ให้อ่านบทความนี้แทน

เพื่อให้สั้นลง โปรดทราบว่าการวิเคราะห์ไฟล์บันทึกเป็นการตรวจทานบันทึกของเว็บเซิร์ฟเวอร์ที่จัดเก็บไว้บนไซต์ของคุณ บันทึกจะบันทึกอินสแตนซ์ของบอท (เช่น Google) ที่โต้ตอบกับไซต์ของคุณ

หลายคนถามว่า “ฉันควรเรียกใช้การวิเคราะห์ไฟล์บันทึกเมื่อใด” และคำตอบที่ถูกต้องก็คือ "ใช่"

นี่คือเหตุผล: การรวบรวมข้อมูลเป็นรากฐานของการเปิดตัว SEO ทางเทคนิคใดๆ หากไม่มีไซต์ที่รวบรวมข้อมูลได้จะไม่ได้รับการจัดทำดัชนี โดยไม่ได้รับการจัดทำดัชนี พวกเขาจะไม่จัดอันดับ และไม่มีอันดับ... คุณเข้าใจถูกแล้ว

มีสองสามวิธีในการปรับปรุงความสามารถในการรวบรวมข้อมูลเว็บไซต์ แต่อาจไม่มีวิธีใดที่มีประสิทธิภาพและครอบคลุมไปกว่าการวิเคราะห์ไฟล์บันทึก นี่คือเหตุผลที่ควรทำหน้าที่เป็นกระดูกสันหลังของการเปิดตัว SEO ทางเทคนิคใดๆ ดังนั้น ไม่ว่าจะเป็นช่วงเริ่มต้นของการเปิดตัวทางเทคนิค หรือว่าคุณอยู่ในแคมเปญที่ครบกำหนดหลายปีแล้ว (แต่ยังไม่ได้ดูไฟล์บันทึกของคุณเมื่อเร็วๆ นี้) ก็ถึงเวลาสำหรับการวิเคราะห์ไฟล์บันทึก

และสำหรับใครก็ตามที่ยังคงใช้การวิเคราะห์ไฟล์บันทึกอยู่ ฉันจะเพิ่มคำแนะนำนี้ สำหรับ SEO ที่เชื่อว่าพวกเขาทำทุกอย่างในหนังสือแล้วแต่ยังคงพยายามหาคีย์เวิร์ดที่ดื้อรั้นในหน้า 1: ให้เรียกใช้การวิเคราะห์ไฟล์บันทึกนั้น

ตัววิเคราะห์บันทึกการรวบรวมข้อมูล

การวิเคราะห์ไฟล์บันทึกสำหรับการตรวจสอบบอทและการปรับงบประมาณการตระเวนให้เหมาะสม ตรวจหาปัญหาความสมบูรณ์ของไซต์และปรับปรุงความถี่ในการรวบรวมข้อมูลของคุณ
เรียนรู้เพิ่มเติม

การวิเคราะห์ไฟล์บันทึกในการดำเนินการ: การสังเกตสิ่งที่ค้นพบ

การตรวจสอบไฟล์บันทึกสามารถก่อให้เกิดสิ่งที่ค้นพบมากมาย ได้แก่:

  • ปริมาณการรวบรวมข้อมูลของบอท
  • รวบรวมข้อมูลงบประมาณเสีย
  • 302 เปลี่ยนเส้นทาง
  • ข้อผิดพลาดรหัสตอบกลับ
  • ลำดับความสำคัญของการรวบรวมข้อมูล
  • การรวบรวมข้อมูล URL ซ้ำกัน
  • วันที่รวบรวมข้อมูลล่าสุด

แต่การค้นพบนี้เองไม่ได้ช่วยอะไร ต้องใช้ SEO ที่มองเห็นปัญหาในอดีตเพื่อสร้างโซลูชันที่จะใช้ประโยชน์สูงสุดจากการวิเคราะห์ไฟล์บันทึก

ที่ชั้น 97 เรามีลูกค้าอีคอมเมิร์ซที่ขายสินค้าที่ไม่ซ้ำใครด้วยป้ายราคาสูง ผลิตภัณฑ์เกือบทั้งหมดมีเอกลักษณ์เฉพาะตัว และเมื่อมีการขายผลิตภัณฑ์ ลูกค้าของเราได้ลบหน้าออกจากไซต์ สิ่งนี้ทำให้การเติบโตระดับหน้ายากขึ้น นอกจากนี้ยังทำให้เกิดความสับสนในการรวบรวมข้อมูลกับ Googlebot อีกด้วย

จำเป็นต้องพูด พวกเขากำลังต่อสู้กับการต่อสู้ที่ยากลำบากกับ Google ก่อนที่เราจะเข้าไปเกี่ยวข้อง เมื่อเริ่มต้นใช้งานกับไคลเอ็นต์ เราจะทำการวิเคราะห์ไฟล์บันทึกทันที

การวิเคราะห์ไฟล์บันทึกของเราทำให้เกิดข้อค้นพบมากมาย (ตามปกติ) แต่ทั้งสามข้อนี้โดดเด่น:

  1. Google . รวบรวมข้อมูลโฟลเดอร์ย่อยที่ซ้ำซ้อนจำนวนมาก
  2. Googlebot ยังคงรวบรวมข้อมูลหน้าเว็บหลายหน้าที่แสดงข้อผิดพลาด 404 เนื่องจากถูกลบออกจากไซต์แล้ว จึงไม่สามารถพบได้ในการรวบรวมข้อมูลไซต์เริ่มต้นของเรา
  3. มีการรวบรวมข้อมูลโฟลเดอร์ย่อยที่ไม่สำคัญมากกว่าหน้า Landing Page ที่สำคัญ

ดังที่ได้กล่าวไว้ก่อนหน้านี้ การวิเคราะห์ไฟล์บันทึกจะไม่หยุดเมื่อการวิเคราะห์สิ้นสุดลง มันดำเนินต่อไปผ่านรายการการดำเนินการและในการนำไปใช้และการดำเนินการ ในสถานการณ์ของลูกค้าของเรา พวกเขากำลังใช้งบประมาณในการรวบรวมข้อมูลจาก Google ไปเปล่าๆ ในหน้าเว็บที่ไม่ได้สนใจเลย

หน้าใหม่ของเราได้รับการปรับปรุงอย่างดี แต่ไม่ได้รับแรงฉุดที่เราต้องการเพื่อให้ได้อันดับที่มีความหมาย

เมื่อเราค้นพบปัญหาทั้งสามนี้จากการวิเคราะห์ไฟล์บันทึกของเรา มันสมเหตุสมผลแล้วที่อันดับของเราไม่สูงขึ้น Google ใช้งบประมาณการรวบรวมข้อมูลเพื่อดูหน้าที่ไม่ได้รับการปรับให้เหมาะสม หรือไม่ได้รับการปรับให้เหมาะสมเลย

เพื่อให้ได้อันดับที่จะนำมาในการเข้าชมที่เราจำเป็นต้องเห็นความสำเร็จ อันดับแรก เราต้องแก้ไขรายการจากการวิเคราะห์ไฟล์บันทึก

ในกรณีนี้ เห็นได้ชัดว่างบประมาณการรวบรวมข้อมูลกำลังสูญเปล่าไปกับหน้าที่ไม่สำคัญ ซึ่งพบได้ทั่วไปจากการวิเคราะห์ไฟล์บันทึก

โซลูชันจากการวิเคราะห์ไฟล์บันทึก

การจัดการขยะจากการรวบรวมข้อมูลในโฟลเดอร์ย่อยที่ซ้ำซ้อน

เนื่องจากลูกค้าของเราเป็นไซต์อีคอมเมิร์ซ เราจึงเห็นโฟลเดอร์ย่อยจำนวนมากที่ซ้ำกันทั่วทั้งไซต์ โฟลเดอร์ย่อยเหล่านี้ส่วนใหญ่เป็นหน้าหมวดหมู่ที่เก่ามากจนข้อมูลที่เก็บไว้นั้นล้าสมัยอย่างมาก และแทบจะเป็นไปไม่ได้เลยที่จะค้นพบโดยธรรมชาติ

แต่ Googlebot ไม่เพียงแต่ค้นพบพวกเขาเท่านั้น มีการกลับมารวบรวมข้อมูลซ้ำบ่อยๆ โดยกินเข้าไปในงบประมาณการรวบรวมข้อมูลของเรา

วิธีแก้ปัญหาของเราคือลบและเปลี่ยนเส้นทางโฟลเดอร์ย่อยที่ซ้ำซ้อนเหล่านี้ไปยังโฟลเดอร์ย่อยที่เหมาะสมและเกี่ยวข้องมากขึ้น เราเพิ่งเปิดตัวโครงสร้างหมวดหมู่ที่ปรับปรุงใหม่ทั้งหมด ซึ่งน่าจะช่วยให้เราจัดอันดับคำหลักที่มีขนาดใหญ่กว่าบางคำได้ คุณเดาได้ไหมว่าเราเปลี่ยนเส้นทางหน้าย่อยที่ซ้ำซ้อนเหล่านี้ไปที่ใด

การเปลี่ยนเส้นทางเพจเก่าและเพจที่ถูกลืมเหล่านี้ไปยังหน้าเพจที่ใหม่กว่าและเหมาะสมกว่า ทำให้เราได้เปรียบใน SERP

[กรณีศึกษา] เพิ่มประสิทธิภาพปริมาณการค้นหาทั่วไปโดยใช้การวิเคราะห์ไฟล์บันทึก

สถาบันวิจัยธุรกิจแห่งชาติได้ออกแบบเว็บไซต์ใหม่และพบว่าปริมาณการค้นหาทั่วไปลดลง กรณีศึกษานี้เน้นที่วิธีที่ NBRI ใช้ OnCrawl เพื่อเพิ่มประสิทธิภาพ SEO ของตนตามการออกแบบใหม่
อ่านกรณีศึกษา

การแก้ไขขยะจากการรวบรวมข้อมูลในโฟลเดอร์ย่อยที่ไม่สำคัญ

จุดนี้ดูคล้ายกับจุดสุดท้ายเกี่ยวกับโฟลเดอร์ย่อยที่ซ้ำซ้อน โฟลเดอร์ย่อยที่ซ้ำซ้อนถูกลืมและสูญเสียสำเนาของเวอร์ชันปัจจุบันของเรา ความแตกต่างระหว่างโฟลเดอร์ย่อยที่ซ้ำซ้อนและไม่สำคัญคือตอนนี้เรากำลังพูดถึงโฟลเดอร์ย่อยที่ยังคงมีความเกี่ยวข้องอยู่ แต่ไม่ใช่หน้าหลักสำคัญสำหรับการค้นหา

วิธีแก้ปัญหาที่นี่เป็นอะไรที่ตรงไปตรงมา เนื่องจากเราไม่ทราบสาเหตุที่แท้จริงของสถานการณ์ เราจึงต้องกำหนดวิธีแก้ปัญหาแบบกว้าง ๆ ที่เกี่ยวข้องกับทุกสิ่งเล็กน้อย ได้แก่:

  • การแทรกลิงก์ภายในเชิงกลยุทธ์จากหน้าที่มีลำดับความสำคัญต่ำ (แต่มีการรวบรวมข้อมูลสูง) ไปยังหน้าที่มีความสำคัญสูงและปรับ SEO ให้เหมาะสม
  • การจัดเรียงแผนผังเว็บไซต์ใหม่เพื่อรวมหน้าที่สำคัญกว่าไว้ในไฟล์ .xml
  • การแก้ไขข้อมูล rel=”canonical” และ meta robots ในหน้าที่มีลำดับความสำคัญสูงกว่าของเรา
  • การตรวจสอบไฟล์ robots.txt อีกครั้งเพื่อให้แน่ใจว่าไม่มีสิ่งใดถูกบล็อกที่ไม่ควร (ไซต์อีคอมเมิร์ซขนาดใหญ่จำเป็นต้องตรวจสอบสิ่งนี้เป็นพิเศษ)
  • การลบและลบเพจที่ไม่จำเป็น

การล้างหน้าที่ตายแล้ว

เราได้ทำการตรวจสอบไซต์ที่เรารวบรวมข้อมูลไซต์และพบข้อผิดพลาด 404 ทั้งหมดที่การรวบรวมข้อมูลไซต์ภายในสามารถระบุได้

แต่นั่นเป็นความสวยงามของการวิเคราะห์ไฟล์บันทึก คุณไม่ได้ดึงข้อมูลที่จำกัดจากการรวบรวมข้อมูลภายในของคุณเอง คุณกำลังดูสิ่งที่ Google เห็น โดยพื้นฐานแล้วเป็นการตรวจสอบไซต์จากมุมมองของบุคคลภายนอก ซึ่งเป็นบุคคลภายนอกที่สำคัญที่สุด: Google

การแก้ไขที่นี่ทำได้ง่าย ซึ่งช่วยชดเชยเวลาที่ใช้ไปกับจุดก่อนหน้าทั้งหมด เรา 301 เปลี่ยนเส้นทางหน้าเก่าที่ถูกละเลยเหล่านี้ไปยังหน้าเพจที่ได้รับการเพิ่มประสิทธิภาพบนไซต์ เสร็จแล้ว.

ผลการวิเคราะห์ล็อกไฟล์

ส่วนที่ดีที่สุดของการวิเคราะห์ไฟล์บันทึกสำหรับลูกค้ารายนี้คือผลลัพธ์ที่รวดเร็วที่พวกเขาได้รับ

ดังที่กล่าวไว้ก่อนหน้านี้ ทำให้ลูกค้าได้รับรายได้ทั่วไปเพิ่มขึ้น 25% ในเวลาเพียง 30 วันหลังจากดำเนินการตามรายการการทำงานข้างต้น

ในช่วงเวลานี้ เรายังเห็นอัตราการแปลงที่เพิ่มขึ้นเล็กน้อยสำหรับการเข้าชมที่เกิดขึ้นเอง เนื่องจากการเพิ่มขึ้นของราคานี้เกิดขึ้นในช่วงโลว์ซีซัน จึงไม่มีฤดูกาลให้เล่นที่นี่ และการที่อัตรา Conversion เพิ่มขึ้นหมายความว่าการเข้าชมไม่ได้มาแค่จำนวนที่มากขึ้นเท่านั้น แต่ยังเป็นการเข้าชมที่เข้าเกณฑ์ด้วย

การเข้าชมมีแนวโน้มจะเข้าเกณฑ์มากกว่า เนื่องจากหลังจากแจกจ่ายงบประมาณการรวบรวมข้อมูลที่เว็บไซต์ของลูกค้ามีกับ Google อย่างมีประสิทธิภาพ เราก็ดึงความสนใจไปที่หน้าเว็บที่อิงตามความตั้งใจมากขึ้น ซึ่งทำให้ได้รับการจัดอันดับที่ดีขึ้นสำหรับคำหลักที่มีความตั้งใจสูง ซึ่งหมายความว่าเรากำลังดึงผู้ใช้ให้ต่ำลงในช่องทางไปยังหน้าที่ถูกต้องเพื่อช่วยเหลือพวกเขาในการเดินทาง

มันอาจจะฟังดูดี แต่ที่ชั้น 97 ความเชื่อของเราคือทำให้อินเทอร์เน็ตเป็นสถานที่ที่ดีกว่า การวิเคราะห์ไฟล์บันทึกทำเช่นนี้เพราะชดเชยข้อบกพร่องของการรวบรวมข้อมูลที่ไม่ถูกต้องของ Google สิ่งนี้นำหน้าคุณภาพสูงขึ้นสู่อันดับต้น ๆ ของ SERP ทำให้ประสบการณ์การค้นหาทางอินเทอร์เน็ตที่ดียิ่งขึ้นสำหรับทุกคน

ครั้งต่อไปที่คุณประสบกับปัญหาความสามารถในการรวบรวมข้อมูล ฉันหวังว่าคุณจะไม่ต้องคิดซ้ำเกี่ยวกับการดำเนินการวิเคราะห์ไฟล์บันทึก นำเสนอวิธีแก้ไข และมองผ่านมันไป คุณจะเห็นว่าไซต์ของคุณได้รับการเข้าชมและการแปลงมากขึ้น

เริ่มการทดลองใช้ฟรีของคุณ