Практический пример анализа лог-файлов
Опубликовано: 2020-04-07Анализ файла журнала требует времени, меньше времени с OnCrawl, но, тем не менее, времени. SEO-специалисты имеют длинный список оптимизаций и аудитов, и, поскольку файлы журналов являются одним из самых тяжелых элементов в списке, у него есть неприятная привычка ползти в конец указанного списка.
Человеку свойственно откладывать дела на потом, но легче начать, когда знаешь, что тебя ждет.
Недавний анализ файла журнала в 97th Floor принес их клиенту увеличение органического дохода на 25% всего за 30 дней после завершения анализа .
Что нужно знать перед запуском анализа файла журнала
Если вы новичок в файлах журналов, эта статья не предназначена для полного описания основ. Вместо этого прочитайте эту статью.
Короче говоря, знайте, что анализ файла журнала — это, по сути, просмотр журналов веб-сервера, которые были сохранены на вашем сайте. Журналы фиксируют случаи взаимодействия ботов (например, Google) с вашим сайтом.
Многие спрашивают: «Когда мне следует запускать анализ лог-файла?» И правильный ответ — просто: «Да».
И вот почему: сканируемость — это основа любого развертывания технического SEO. Без возможности сканирования сайты не будут проиндексированы. Без индексации они не будут ранжироваться. И без ранжирования… Вы поняли.
Существует несколько способов улучшить возможности сканирования сайта, но, возможно, наиболее эффективным и всеохватывающим является анализ файла журнала. Вот почему он должен служить основой любого развертывания технического SEO. Так что, будь то в начале технического развертывания или в зрелой кампании уже много лет (но в последнее время вы не просматривали свои файлы журналов), пришло время для анализа файлов журналов.
А для тех, кто все еще думает о проведении анализа файла журнала, я добавлю этот совет. Любому специалисту по поисковой оптимизации, который считает, что сделал все, что описано в книге, но все еще не может найти упрямое ключевое слово на странице 1: запустите анализ файла журнала.
Анализатор журнала сканирования
Анализ файла журнала в действии: наблюдения за выводами
Просмотр файлов журналов может привести к множеству выводов, в том числе:
- Объем сканирования ботов
- Трата бюджета сканирования
- 302 редиректа
- Ошибки кода ответа
- Приоритет сканирования
- Сканирование повторяющихся URL-адресов
- Дата последнего сканирования
Но эти выводы сами по себе не помогают. Требуется оптимизатор, который может видеть проблемы, чтобы создавать решения, которые будут максимально использовать анализ файла журнала.
На 97-м этаже у нас есть клиент электронной коммерции, который продает уникальные продукты по высокой цене. Практически все товары уникальны, и когда товар продавался, наш клиент удалял страницу с сайта. Это затрудняло любой рост на уровне страницы. Это также вызвало много путаницы с роботом Googlebot.
Излишне говорить, что они вели тяжелую битву с Google до того, как мы вмешались. При подключении к клиенту мы сразу же провели анализ лог-файла.
Наш анализ файла журнала дал много результатов (как это обычно бывает), но эти три выделялись:
- Google часто сканировал большое количество избыточных подпапок.
- Многие страницы с ошибкой 404 все еще сканировались роботом Googlebot. Поскольку они были удалены с сайта, их нельзя было найти при первоначальном сканировании сайта.
- Неважные подпапки сканировались чаще, чем ключевые целевые страницы.
Как упоминалось ранее, анализ файла журнала не останавливается после завершения анализа. Он продолжается через элементы действий и переходит к реализации и выполнению. В ситуации нашего клиента они тратили краулинговый бюджет Google на страницы, которые просто не двигались.
Наши новые страницы были хорошо оптимизированы, но не получали должного внимания, необходимого для достижения значимого рейтинга.
Когда мы обнаружили эти три проблемы в результате анализа файла журнала, стало понятно, почему наши рейтинги не были выше. Google использовал наш краулинговый бюджет для просмотра плохо оптимизированных страниц или вообще не оптимизированных.
Чтобы получить ранжирование, которое принесет трафик, необходимый для успеха, нам сначала нужно было разрешить элементы из анализа файла журнала.
В этом случае было очевидно, что краулинговый бюджет тратится на неважные страницы, что является обычным результатом анализа файла журнала.
Решения из анализа файла журнала
Устранение потерь при сканировании в избыточных подпапках
Поскольку нашим клиентом был сайт электронной коммерции, мы увидели большое количество дублирующихся подпапок на сайте. Эти подпапки были в основном страницами категорий, которые были настолько старыми, что информация, которую они содержали, была сильно устаревшей, и ее почти невозможно было обнаружить органически.
Но робот Googlebot не только обнаружил их. Он продолжал часто возвращаться, чтобы повторно просканировать их, съедая наш краулинговый бюджет.
Наше решение состояло в том, чтобы удалить и перенаправить эти избыточные подпапки в более подходящие и релевантные подпапки. Мы только что запустили полностью переработанную структуру категорий, которая должна была помочь нам ранжироваться по некоторым более крупным ключевым словам. Можете ли вы догадаться, куда мы перенаправили эти лишние подстраницы?
Перенаправление этих старых и забытых страниц на их более новые, более оптимизированные аналоги дало нам преимущество в поисковой выдаче.
[Пример успеха] Оптимизация органического поискового трафика с помощью анализа лог-файлов
Исправление потерь при сканировании в неважных подпапках
Этот пункт похож на последний пункт, касающийся избыточных подпапок. Избыточные подпапки были забыты и утеряны дубликаты наших текущих версий. Различие между избыточными и неважными подпапками заключается в том, что мы сейчас говорим о подпапках, которые все еще были актуальны, но просто не являлись краеугольными страницами для поиска.
Решение здесь было каким угодно, только не простым. Поскольку мы не знаем первопричину ситуации, нам нужно было предписать широкое решение, которое включало всего понемногу, включая:
- Вставка стратегических внутренних ссылок с наших низкоприоритетных (но часто просматриваемых) страниц на наши высокоприоритетные, SEO-оптимизированные страницы.
- Переупорядочивание карты сайта для включения более важных страниц выше в файле .xml.
- Пересмотр сведений о rel="canonical" и мета-роботах на страницах с более высоким приоритетом.
- Пересмотрите файл robots.txt, чтобы убедиться, что ничего не блокируется, чего не должно быть (это особенно необходимо проверить крупным сайтам электронной коммерции).
- Удаление и удаление ненужных страниц
Удаление мертвых страниц
Мы уже провели аудит сайта, в ходе которого мы просканировали сайт и обнаружили все ошибки 404, которые смог выявить внутренний обход сайта.
Но в этом и прелесть анализа файла журнала: вы не извлекаете ограниченные данные из собственного внутреннего обхода. Вы просматриваете именно то, что видит Google. По сути, это аудит сайта с точки зрения стороннего наблюдателя — самого важного стороннего наблюдателя: Google.
Исправление здесь было простым, что помогло компенсировать все время, потраченное на предыдущий пункт. Мы 301 перенаправили эти старые страницы-сироты на их оптимизированные аналоги на сайте. Готово.
Результаты анализа лог-файла
Лучшей частью нашего анализа файла журнала для этого клиента были быстрые результаты, которые он принес.
Как упоминалось ранее, это принесло клиенту увеличение органического дохода на 25% всего за 30 дней после выполнения вышеуказанных действий.
За это время мы также увидели небольшое увеличение коэффициента конверсии для органического трафика. Поскольку этот всплеск произошел во время медленного сезона, здесь нет никакой сезонности. И тот факт, что показатели конверсии увеличились, означает, что трафик не просто увеличился, это также квалифицированный трафик.
Трафик, вероятно, был более квалифицированным, потому что после эффективного перераспределения краулингового бюджета сайта нашего клиента с Google мы привлекли больше внимания к страницам, основанным на намерениях, таким образом заработав более высокий рейтинг по ключевым словам с более высоким намерением. Это означало, что мы привлекали пользователей ниже по воронке к нужным страницам, чтобы помочь им в их путешествии.
Это может звучать пафосно, но кредо 97th Floor — делать Интернет лучше. Анализ файла журнала делает это, потому что он компенсирует недостатки неточного сканирования Google. Это выводит страницы более высокого качества на вершину поисковой выдачи, делая поиск в Интернете намного лучше для всех.
В следующий раз, когда вы столкнетесь с проблемой сканирования, я надеюсь, что вы не будете дважды думать о выполнении анализа файла журнала, представлении решений и просмотре их. Вы увидите, что ваш сайт получает больше трафика и конверсий.