Considerações de SEO ao migrar para uma estrutura JavaScript
Publicados: 2022-04-19Quaisquer grandes atualizações ou alterações em seu site devem sempre ser feitas com as considerações de SEO em mente. De erros de robots.txt a redirecionamentos de página mal implementados, é muito fácil ver seus rankings de pesquisa desaparecerem – literalmente – da noite para o dia.
Isso é igualmente verdadeiro ao migrar seu site para uma estrutura JavaScript. Com um planejamento cuidadoso, você pode garantir que seu site permaneça visível para os robôs dos mecanismos de pesquisa, evitar os riscos e armadilhas comuns que levam à perda de tráfego e preparar seu site para um crescimento futuro contínuo.
É um problema grande e complexo, com muitos detalhes técnicos a serem lembrados durante a migração do site. Mas existem alguns erros comuns a serem evitados, bem como alguns princípios abrangentes que podem ajudar a guiá-lo na direção certa.
Aqui estão algumas das principais preocupações de SEO ao migrar para uma estrutura JavaScript.
Preservar URLs importantes
O Googlebot e os outros rastreadores de mecanismos de pesquisa associam o conteúdo do site a URLs – é como eles se conectam a você a partir de seus resultados de pesquisa – mas as estruturas JavaScript podem quebrar o vínculo entre URLs estáticos e conteúdo atualizando as páginas dinamicamente.
Isso é especialmente verdadeiro para aplicativos de página única (SPAs) que precisam de tratamento especial para garantir que quaisquer URLs importantes do site anterior sejam preservados e permaneçam visíveis para o Googlebot, para proteger sua presença existente nos SERPs.
Não se engane se sua página inicial ainda estiver aparecendo na classificação correta – isso pode ser um sinal de que o Google está rastreando com sucesso a página inicial do seu SPA, mas não encontra o conteúdo veiculado dinamicamente no lado do cliente.
Ativar o acesso do rastreador
Isso é mais do que apenas desbloquear os rastreadores do mecanismo de pesquisa em seu arquivo robots.txt. Você precisa deles para rastrear seu site e ver seu conteúdo – e para isso, é provável que você precise de alguma forma de renderização do lado do servidor.
Ao implementar a renderização ou pré-renderização do lado do servidor, você fornece aos robôs de pesquisa uma versão do seu conteúdo como aparece após a execução de qualquer JavaScript, eliminando a carga de recursos de pedir aos robôs que renderizem o conteúdo da página por conta própria.
Isso não apenas torna cada página visível para os rastreadores, mas também pode aumentar o número de páginas e os níveis de hierarquia do seu site que são indexados, colocando menos demanda no orçamento de rastreamento dos robôs por página.
Melhorar a rastreabilidade
Você pode ajudar ainda mais os robôs apresentando informações de maneira fácil de digerir. Pense nisso ao implementar recursos JavaScript como eventos onclick e paginação de rolagem infinita.
Ao ter em mente o que os robôs podem realmente fazer, você pode garantir que seu conteúdo seja visível para eles dentro desses recursos. Como recompensa, mais do seu conteúdo provavelmente será rastreado, indexado e classificado.
Um bônus adicional é que, ao criar uma versão amigável do rastreador do seu site, você também pode melhorar a acessibilidade para alguns visitantes humanos, que podem não ter JavaScript funcionando em seus dispositivos quando visitam seu site.
[Estudo de caso] Aumente a visibilidade melhorando a rastreabilidade do site para o Googlebot
Redirecionar URLs antigos
Se você não planeja preservar URLs antigos exatamente como estão, mas tem uma forte presença de pesquisa, considere implementar redirecionamentos permanentes para apontar os robôs para o equivalente mais próximo no seu novo sitemap.
Isso preserva a autoridade do domínio e pode proteger suas classificações, pelo menos até que qualquer conteúdo recém-publicado seja totalmente rastreado e indexado, quando você pode ou não decidir remover os redirecionamentos mais antigos, se essas páginas antigas não estiverem mais trazendo tráfego significativo.
Use links internos consistentes
Novamente, trata-se de carregamento dinâmico de conteúdo. As estruturas JavaScript podem liberar alguns recursos interessantes, como a capacidade de extrair dados de um recurso externo e usá-lo para atualizar a página atual, em vez de navegar para uma URL diferente.
Para SEO, é melhor manter o conteúdo relativamente estático e carregar uma URL diferente ao alterar substancialmente a página. Os rastreadores entendem melhor essa abordagem, podem mapear melhor seu site como um todo e são mais propensos a visitar e interpretar corretamente a nova página.
A falta de disciplina na vinculação interna é uma grande armadilha de muitas migrações. Pode deixar algumas páginas muito mais difíceis para os robôs rastrearem e enviar sinais confusos sobre a importância relativa de algumas páginas, em comparação com outras.
A importância da consistência
Além dos links internos, tente ser consistente em todos os sinais que envia para os motores de busca. Isso é especialmente verdadeiro se o seu site carrega apenas parte de seu conteúdo por meio da estrutura JavaScript, pois você deve garantir que as páginas JavaScript carreguem e funcionem de maneira semelhante a qualquer página HTML ou PHP em seu site.
Exemplos disso podem incluir a resolução de URLs com e sem uma barra final (se isso resolve ou redireciona deve ser consistente em todas as áreas do seu site), bem como práticas recomendadas de SEO, como a implementação de tags canônicas (que, novamente, devem ser consistentes em termos de quais conteúdo é considerado canônico).
É melhor prevenir do que remediar, especialmente quando se trata de rankings de busca. Portanto, tente entender não apenas como o conteúdo é exibido em seu site, mas como ele é exibido, seja por renderização do lado do cliente ou do lado do servidor – e se sua migração para JavaScript afetará a visibilidade do conteúdo em seu site, na próxima vez que for rastreado.
[Estudo de caso] Evite que seu redesign penalize seu SEO
Isso vai mudar algum dia?
A renderização dinâmica não é amiga do SEO devido à natureza relativamente simples dos robôs de busca. No futuro, podemos ver um Googlebot mais complexo e capaz que possa contornar alguns desses problemas, mas, por enquanto, o ônus está nos webmasters para fornecer conteúdo da maneira mais comestível possível.
Isso é verdade em todo o planejamento, implementação e gerenciamento de qualquer site que dependa de uma presença de pesquisa. Mas é de suma importância durante as principais atualizações, upgrades e migrações, incluindo a migração para uma estrutura JavaScript.
Ao manter em mente algumas das armadilhas e práticas recomendadas descritas acima, você pode manter suas ambições de SEO na vanguarda da migração do seu site e evitar o cenário de pesadelo de ter um site grande e lucrativo desaparecendo das SERPs da noite para o dia.