Studium przypadku analizy plików dziennika

Opublikowany: 2020-04-07

Analiza pliku dziennika zajmuje trochę czasu, mniej czasu dzięki OnCrawl, ale mimo to czas. SEO mają długą listę optymalizacji i audytów, a ponieważ pliki dziennika są jedną z cięższych pozycji na liście, ma nieprzyjemny zwyczaj schodzenia na sam dół tej listy.

Odwlekanie leży w ludzkiej naturze, ale łatwiej jest zacząć, gdy wiesz, co na ciebie czeka.

Niedawna analiza plików dziennika na 97. piętrze przyniosła klientowi 25% wzrost przychodów organicznych w zaledwie 30 dni po zakończeniu analizy .

Co musisz wiedzieć przed uruchomieniem analizy pliku dziennika

Jeśli dopiero zaczynasz korzystać z plików dziennika, ten artykuł nie jest tutaj, aby w pełni omówić podstawy. Zamiast tego przeczytaj ten artykuł.

Krótko mówiąc, wiedz, że analiza pliku dziennika jest zasadniczo przeglądem dzienników serwera WWW, które zostały zapisane w Twojej witrynie. Dzienniki rejestrują przypadki, w których boty (takie jak Google) wchodzą w interakcję z Twoją witryną.

Wiele osób pyta: „kiedy powinienem przeprowadzić analizę pliku dziennika?” A prawidłowa odpowiedź to po prostu „Tak”.

Oto dlaczego: Możliwość indeksowania jest podstawą każdego technicznego wdrożenia SEO. Witryny bez możliwości indeksowania nie będą indeksowane. Bez zindeksowania nie będą się pozycjonować. A bez rankingu… Masz rację.

Istnieje kilka sposobów na zwiększenie indeksowania witryny, ale być może żaden z nich nie jest bardziej skuteczny i kompleksowy niż analiza pliku dziennika. Dlatego powinien służyć jako podstawa każdego technicznego wdrożenia SEO. Więc niezależnie od tego, czy jest to początek wdrażania technicznego, czy też jesteś od lat w dojrzałej kampanii (ale nie przeglądałeś ostatnio swoich plików dziennika), nadszedł czas na analizę pliku dziennika.

A dla każdego, kto nadal jest zainteresowany analizą pliku dziennika, dodam tę radę. Każdemu SEO, który uważa, że ​​zrobił wszystko w tej książce, ale wciąż ma problemy z umieszczeniem tego upartego słowa kluczowego na stronie 1: uruchom analizę pliku dziennika.

Analizator logów Oncrawl

Analiza plików dziennika w celu monitorowania botów i optymalizacji budżetu indeksowania. Wykryj problemy z kondycją witryny i popraw częstotliwość indeksowania.
Ucz się więcej

Analiza pliku dziennika w akcji: obserwacja ustaleń

Przeglądanie plików dziennika może przynieść mnóstwo wyników, w tym:

  • Objętość indeksowania bota
  • Marnowanie budżetu na indeksowanie
  • 302 przekierowań
  • Błędy kodu odpowiedzi
  • Priorytet indeksowania
  • Indeksowanie zduplikowanych adresów URL
  • Data ostatniego indeksowania

Ale te odkrycia same w sobie nie pomagają. Potrzeba SEO, który potrafi przejrzeć problemy, aby stworzyć rozwiązania, które w pełni wykorzystają analizę pliku dziennika.

Na 97. piętrze mamy klienta e-commerce, który sprzedaje unikalne produkty z wysokimi cenami. Praktycznie wszystkie produkty są unikalne, a gdy produkt jest sprzedawany, nasz klient usuwał stronę z serwisu. Utrudniło to uzyskanie jakiegokolwiek wzrostu na poziomie strony. Spowodowało to również wiele nieporozumień dotyczących indeksowania w przypadku Googlebota.

Nie trzeba dodawać, że walczyli z Google, zanim się w to zaangażowaliśmy. Podczas onboardingu z klientem od razu przeprowadziliśmy analizę pliku dziennika.

Nasza analiza pliku dziennika dała wiele wyników (jak zwykle), ale te trzy się wyróżniały:

  1. Duża liczba zbędnych podfolderów była często indeksowana przez Google
  2. Wiele stron, które zwróciły błąd 404, nadal było indeksowanych przez Googlebota. Ponieważ zostały usunięte z witryny, nie można ich było znaleźć podczas naszego początkowego indeksowania witryny
  3. Nieważne podfoldery były indeksowane częściej niż kluczowe strony docelowe

Jak wspomniano wcześniej, analiza pliku dziennika nie kończy się po zakończeniu analizy. Kontynuuje poprzez elementy działań oraz wdrażanie i wykonanie. W sytuacji naszego klienta marnował budżet na indeksowanie Google na stronach, które po prostu nie poruszały igłą.

Nasze nowe strony były dobrze zoptymalizowane, ale nie uzyskiwały takiej siły, jakiej potrzebowaliśmy, aby skutkować jakimikolwiek znaczącymi rankingami.

Kiedy odkryliśmy te trzy problemy z naszej analizy pliku dziennika, zrozumiałe było, dlaczego nasze rankingi nie były wyższe. Google korzystało z naszego budżetu indeksowania, aby przeglądać strony, które nie były dobrze zoptymalizowane lub w ogóle nie były zoptymalizowane.

Aby uzyskać rankingi, które przyniosłyby ruch, którego potrzebowaliśmy, aby osiągnąć sukces, najpierw musieliśmy rozwiązać pozycje z analizy pliku dziennika.

W tym przypadku było oczywiste, że budżet indeksowania marnuje się na nieistotne strony, co jest powszechnym odkryciem przy analizie pliku dziennika.

Rozwiązania z analizy pliku dziennika

Adresowanie odpadów indeksowania w zbędnych podfolderach

Ponieważ nasz klient był witryną e-commerce, zauważyliśmy dużą liczbę podfolderów, które zostały zduplikowane w całej witrynie. Te podfoldery były w większości stronami kategorii, które były tak stare, że przechowywane w nich informacje były bardzo nieaktualne i prawie niemożliwe do organicznego odkrycia.

Ale Googlebot nie tylko je odkrył. Wracał często, aby je ponownie indeksować, pochłaniając nasz budżet indeksowania.

Naszym rozwiązaniem było usunięcie i przekierowanie tych zbędnych podfolderów do bardziej odpowiednich i odpowiednich podfolderów. Właśnie uruchomiliśmy całkowicie zmienioną strukturę kategorii, która miała nam pomóc w rankingu niektórych większych słów kluczowych. Czy wiesz, gdzie przekierowaliśmy te zbędne podstrony?

Przekierowanie tych starych i zapomnianych stron na ich nowsze, bardziej zoptymalizowane odpowiedniki dało nam przewagę w SERPach.

[Studium przypadku] Zoptymalizuj bezpłatny ruch związany z wyszukiwaniem za pomocą analizy plików dziennika

National Business Research Institute przeprojektował swoją witrynę internetową i odnotował spadek bezpłatnego ruchu w wyszukiwarkach. To studium przypadku koncentruje się na tym, w jaki sposób firma NBRI wykorzystała OnCrawl do optymalizacji wydajności SEO po przeprojektowaniu.
Przeczytaj studium przypadku

Poprawianie crawl waste w nieistotnych podfolderach

Ten punkt wydaje się podobny do poprzedniego punktu dotyczącego zbędnych podfolderów. Zbędne podfoldery zostały zapomniane i utracone duplikaty naszych obecnych wersji. Rozróżnienie między zbędnymi i nieważnymi podfolderami polega na tym, że teraz mówimy o podfolderach, które nadal były istotne, ale po prostu nie są podstawowymi stronami wyszukiwania.

Rozwiązanie tutaj nie było proste. Ponieważ nie znamy pierwotnej przyczyny sytuacji, musieliśmy przepisać szerokie rozwiązanie, które obejmowało po trochu wszystkiego, w tym:

  • Wstawianie strategicznych linków wewnętrznych z naszych stron o niskim priorytecie (ale o wysokim stopniu indeksowania) do naszych zoptymalizowanych pod kątem SEO stron o wysokim priorytecie
  • Zmiana układu mapy witryny tak, aby zawierała ważniejsze strony wyżej w pliku .xml
  • Poprawianie informacji o robotach rel="canonical" i meta na naszych stronach o wyższym priorytecie
  • Ponowne sprawdzenie pliku robots.txt, aby upewnić się, że nic nie zostało zablokowane, co nie powinno być (szczególnie należy to sprawdzić w przypadku dużych witryn e-commerce).
  • Usuwanie i usuwanie niepotrzebnych stron

Usuwanie martwych stron

Przeprowadziliśmy już audyt witryny, podczas którego zindeksowaliśmy witrynę i znaleźliśmy wszystkie błędy 404, które można zidentyfikować podczas wewnętrznego indeksowania witryny.

Ale to jest piękno analizy pliku dziennika, nie pobierasz ograniczonych danych z własnego wewnętrznego indeksowania. Oglądasz dokładnie to, co widzi Google. Zasadniczo jest to audyt witryny z perspektywy osoby z zewnątrz – najważniejszej osoby z zewnątrz: Google.

Poprawka tutaj była prosta, co pomogło nadrobić cały czas spędzony na poprzednim punkcie. 301 przekierowaliśmy te stare osierocone strony do ich zoptymalizowanych odpowiedników w witrynie. Zrobione.

Wyniki analizy pliku dziennika

Najlepszą częścią naszej analizy pliku dziennika dla tego klienta były szybkie wyniki, jakie mu przyniosło.

Jak wspomniano wcześniej, przyniosło to klientowi 25% wzrost przychodów organicznych w ciągu zaledwie 30 dni po wdrożeniu powyższych elementów działań.

W tym czasie zaobserwowaliśmy również niewielki wzrost współczynników konwersji dla ruchu organicznego. Ponieważ ten wzrost miał miejsce w wolnym sezonie, nie ma tu żadnej sezonowości. A fakt, że współczynniki konwersji wzrosły, oznacza, że ​​ruch był nie tylko większy, ale także kwalifikowany.

Ruch był prawdopodobnie bardziej kwalifikowany, ponieważ po skutecznej redystrybucji budżetu indeksowania witryny naszego klienta w Google, zwróciliśmy uwagę na strony o większej intencji, dzięki czemu uzyskaliśmy lepsze pozycje w rankingach na słowa kluczowe o wyższej intencji. Oznaczało to, że ciągnęliśmy użytkowników niżej na ścieżce do odpowiednich stron, aby pomóc im w ich podróży.

Może to zabrzmieć głupio, ale na 97. piętrze naszym credo jest to, że czynimy internet lepszym miejscem. Analizy plików dziennika robią to, ponieważ rekompensują wady niedokładnego indeksowania Google. Dzięki temu strony o wyższej jakości znajdują się na szczycie SERP, dzięki czemu wyszukiwanie w Internecie jest znacznie lepsze dla wszystkich.

Mam nadzieję, że następnym razem, gdy napotkasz problem z indeksowaniem, nie zastanowisz się dwa razy nad wykonaniem analizy pliku dziennika, przedstawieniem rozwiązań i przejrzeniem ich. Zobaczysz, że Twoja witryna przyniesie większy ruch i konwersje.

Rozpocznij darmowy okres próbny