Вопросы SEO при переходе на JavaScript-фреймворк
Опубликовано: 2022-04-19Любые серьезные обновления или изменения на вашем веб-сайте всегда следует делать с учетом соображений SEO. От ошибок robots.txt до плохо реализованных перенаправлений страниц — слишком легко увидеть, как ваш поисковый рейтинг исчезает — буквально — за одну ночь.
Это в равной степени верно и при переносе вашего веб-сайта на платформу JavaScript. При тщательном планировании вы можете убедиться, что ваш сайт остается видимым для роботов поисковых систем, избежать распространенных рисков и ловушек, которые приводят к потере трафика, и подготовить свой сайт к дальнейшему будущему росту.
Это большая и сложная проблема с множеством технических деталей, которые необходимо учитывать при переносе веб-сайта. Но есть некоторые распространенные ошибки, которых следует избегать, а также некоторые общие принципы, которые помогут вам двигаться в правильном направлении.
Вот некоторые из основных проблем SEO при переходе на JavaScript-фреймворк.
Сохраняйте важные URL-адреса
Робот Googlebot и другие сканеры поисковых систем связывают содержимое веб-сайта с URL-адресами — так они ссылаются на вас из результатов поиска, — но фреймворки JavaScript могут разорвать связь между статическими URL-адресами и контентом, динамически обновляя страницы.
Это особенно верно для одностраничных приложений (SPA), которые нуждаются в особой обработке, чтобы гарантировать, что любые важные URL-адреса с бывшего веб-сайта будут сохранены и останутся видимыми для робота Google, чтобы защитить ваше существующее присутствие в поисковой выдаче.
Не обманывайте себя, если ваша домашняя страница все еще отображается в правильном рейтинге — это может быть признаком того, что Google успешно сканирует домашнюю страницу вашего SPA, но не может найти контент, который динамически обслуживается на стороне клиента.
Включить доступ для сканера
Это больше, чем просто разблокировка сканеров поисковых систем в вашем файле robots.txt. Вам нужно, чтобы они могли сканировать ваш сайт и видеть ваш контент — и для этого, вероятно, вам понадобится какая-то форма рендеринга на стороне сервера.
Внедряя рендеринг на стороне сервера или предварительный рендеринг, вы предоставляете поисковым роботам версию вашего контента в том виде, в каком он появляется после выполнения любых JavaScript-кодов, снимая нагрузку с ресурсов, связанную с тем, чтобы просить роботов отображать содержимое страницы самостоятельно.
Это не только делает каждую страницу видимой для поисковых роботов, но также может увеличить количество страниц и уровней иерархии вашего веб-сайта, которые будут проиндексированы, за счет снижения требований к краулинговому бюджету роботов на страницу.
Улучшить возможности сканирования
Вы можете оказать роботам еще большую помощь, представив информацию в удобной для восприятия форме. Подумайте об этом при реализации возможностей JavaScript, таких как события onclick и бесконечная прокрутка страницы.
Помня о том, что на самом деле могут делать роботы, вы можете убедиться, что ваш контент виден им в рамках этих возможностей. В качестве вознаграждения вы, скорее всего, просканируете, проиндексируете и ранжируете больше вашего контента.
Дополнительным бонусом является то, что, создав удобную для сканера версию вашего веб-сайта, вы также можете улучшить доступность для некоторых посетителей-людей, у которых может не работать JavaScript на их устройствах, когда они посещают ваш сайт.
[Пример успеха] Повысьте видимость, улучшив возможности сканирования веб-сайта для робота Googlebot
Перенаправить старые URL-адреса
Если вы не планируете сохранять старые URL-адреса в том виде, в каком они есть, но у вас есть сильное присутствие в поиске, рассмотрите возможность реализации постоянных перенаправлений, чтобы направить роботов на наиболее близкий эквивалент в вашей новой карте сайта.
Это сохраняет авторитет домена и может защитить ваш рейтинг, по крайней мере, до тех пор, пока любой недавно опубликованный контент не будет полностью просканирован и проиндексирован, после чего вы можете или не можете решить удалить старые перенаправления, если эти старые страницы больше не приносят значительного трафика.
Используйте согласованные внутренние ссылки
Опять же, речь идет о динамической загрузке контента. Фреймворки JavaScript могут раскрыть некоторые интересные возможности, такие как возможность извлекать данные из внешнего ресурса и использовать их для обновления текущей страницы, а не для перехода к другому URL-адресу.
Для SEO лучше сохранять относительно статичный контент и загружать другой URL-адрес при существенном изменении страницы. Сканеры лучше понимают этот подход, могут лучше отображать ваш веб-сайт в целом и с большей вероятностью посетят и правильно интерпретируют новую страницу.
Плохая дисциплина внутренних ссылок — главная ловушка многих миграций. Это может значительно усложнить сканирование некоторых страниц для роботов и посылает запутанные сигналы об относительной важности одних страниц по сравнению с другими.
Важность последовательности
Помимо внутренних ссылок, постарайтесь быть последовательным во всех сигналах, которые вы отправляете поисковым системам. Это особенно верно, если ваш веб-сайт загружает только часть своего контента через структуру JavaScript, поскольку вы должны убедиться, что страницы JavaScript загружаются и функционируют аналогично любым страницам HTML или PHP на вашем сайте.
Примеры этого могут включать разрешение URL-адресов с завершающей косой чертой и без нее (независимо от того, разрешается ли это или перенаправляется, должно быть согласовано во всех областях вашего веб-сайта), а также передовые методы SEO, такие как внедрение канонических тегов (которые опять же должны быть согласованы с точки зрения того, какие контент считается каноническим).
Профилактика лучше, чем лечение, особенно когда речь идет о поисковом рейтинге. Итак, постарайтесь понять не только то, как контент отображается на вашем веб-сайте, но и то, как он отображается, будь то рендеринг на стороне клиента или на стороне сервера, и повлияет ли ваш переход на JavaScript на видимость контента на вашем веб-сайте. при следующем обходе.
[Пример успеха] Не позволяйте редизайну наносить ущерб SEO
Это когда-нибудь изменится?
Динамический рендеринг не является другом SEO из-за относительно простой природы поисковых роботов. В будущем мы можем увидеть более сложного и функционального робота Googlebot, который сможет решить некоторые из этих проблем, но на данный момент ответственность за предоставление контента лежит на веб-мастерах.
Это справедливо для планирования, реализации и управления любым веб-сайтом, который зависит от присутствия в поиске. Но это имеет первостепенное значение во время крупных обновлений, обновлений и миграций, включая миграцию на платформу JavaScript.
Помня о некоторых подводных камнях и передовых методах, описанных выше, вы можете сохранить свои SEO-амбиции в авангарде миграции вашего веб-сайта и избежать кошмарного сценария, когда большой прибыльный веб-сайт исчезнет из поисковой выдачи в одночасье.