Estudo de caso de análise de arquivos de log
Publicados: 2020-04-07A análise do arquivo de log leva tempo, menos tempo com o OnCrawl, mas mesmo assim tempo. Os SEOs têm uma longa lista de otimizações e auditorias, e com os arquivos de log sendo um dos itens mais pesados da lista, ele tem o péssimo hábito de rastejar para o final da lista.
É da natureza humana procrastinar, mas é mais fácil começar quando você sabe o que está esperando por você.
Uma análise recente do arquivo de log no 97º andar trouxe ao cliente um aumento de 25% na receita orgânica em apenas 30 dias após a conclusão da análise .
O que você precisa saber antes de executar uma análise de arquivo de log
Se você é novo em arquivos de log, este artigo não está aqui para cobrir o básico na íntegra. Em vez disso, leia este artigo.
Para manter as coisas curtas, saiba que a análise do arquivo de log é essencialmente uma revisão dos logs do servidor web que foram arquivados em seu site. Os registros registram instâncias de bots (como o Google) interagindo com seu site.
Muitos perguntam: “quando devo executar uma análise de arquivo de log?” E a resposta correta é simplesmente “Sim”.
Aqui está o porquê: A rastreabilidade é a base de qualquer implementação de SEO técnico. Sem rastreabilidade, os sites não serão indexados. Sem serem indexados, eles não serão classificados. E sem classificação… Você entendeu.
Existem algumas maneiras de melhorar a rastreabilidade do site, mas talvez nenhuma seja mais eficaz e abrangente do que uma análise de arquivo de log. É por isso que deve servir como a espinha dorsal de qualquer lançamento técnico de SEO. Portanto, seja no início de um lançamento técnico ou se você já está há anos em uma campanha madura (mas não olhou seus arquivos de log recentemente), é hora de uma análise do arquivo de log.
E para quem ainda está na linha de executar uma análise de arquivo de log, adicionarei este conselho. Para qualquer SEO que acredita ter feito tudo no livro, mas ainda está lutando para colocar essa palavra-chave teimosa na página 1: execute essa análise de arquivo de log.
Analisador de registro do Oncrawl
Análise do arquivo de log em ação: observando as descobertas
A revisão de seus arquivos de log pode produzir uma infinidade de descobertas, incluindo:
- Volume de rastreamento de bot
- Rastreie o desperdício do orçamento
- redirecionamentos 302
- Erros de código de resposta
- Prioridade de rastreamento
- Rastreamento de URL duplicado
- Data do último rastreamento
Mas essas descobertas por si só não ajudam. É preciso um SEO que possa ver além dos problemas para criar soluções que tirem o máximo proveito de uma análise de arquivo de log.
No 97º andar, temos um cliente de comércio eletrônico que vende produtos exclusivos com preços altos. Praticamente todos os produtos são únicos, e quando o produto é vendido, nosso cliente estava removendo a página do site. Isso dificultou a obtenção de qualquer tipo de crescimento no nível da página. Também causou muita confusão de rastreabilidade com o Googlebot.
Escusado será dizer que eles estavam travando uma batalha difícil com o Google antes de nos envolvermos. Ao fazer a integração com o cliente, executamos imediatamente uma análise do arquivo de log.
Nossa análise do arquivo de log produziu muitas descobertas (como costumam fazer), mas estas três se destacaram:
- Um grande número de subpastas redundantes era frequentemente rastreado pelo Google
- Muitas páginas que retornaram um erro 404 ainda estavam sendo rastreadas pelo Googlebot. Como eles foram removidos do site, não foram encontrados em nosso rastreamento inicial do site
- Subpastas sem importância estavam sendo rastreadas mais do que as principais páginas de destino
Conforme mencionado anteriormente, a análise do arquivo de log não para quando a análise termina. Ele continua através dos itens de ação e na implementação e execução. Na situação do nosso cliente, eles estavam desperdiçando o orçamento de rastreamento do Google em páginas que simplesmente não moviam a agulha.
Nossas novas páginas foram bem otimizadas, mas não estavam obtendo a tração que precisávamos para resultar em classificações significativas.
Quando descobrimos esses três problemas em nossa análise de arquivos de log, fazia sentido porque nossas classificações não eram mais altas. O Google estava usando nosso orçamento de rastreamento para ver páginas que não estavam bem otimizadas ou que não estavam otimizadas.
Para obter as classificações que trariam o tráfego que precisávamos para ver o sucesso, primeiro precisávamos resolver os itens da análise do arquivo de log.
Nesse caso, era óbvio que o orçamento de rastreamento estava sendo desperdiçado em páginas sem importância, uma descoberta comum com uma análise de arquivo de log.
Soluções de análise de arquivos de log
Lidando com o desperdício de rastreamento em subpastas redundantes
Como nosso cliente era um site de comércio eletrônico, vimos um grande número de subpastas duplicadas no site. Essas subpastas eram principalmente páginas de categorias tão antigas que as informações que continham estavam muito desatualizadas e quase impossíveis de descobrir organicamente.
Mas o Googlebot não apenas os descobriu. Ele voltava com frequência para rastreá-los novamente, consumindo nosso orçamento de rastreamento.
Nossa solução foi excluir e redirecionar essas subpastas redundantes para subpastas mais apropriadas e relevantes. Acabamos de lançar uma estrutura de categorias completamente revisada que deveria nos ajudar a classificar algumas palavras-chave maiores. Você consegue adivinhar para onde redirecionamos essas subpáginas redundantes?
Redirecionar essas páginas antigas e esquecidas para suas contrapartes mais novas e otimizadas nos deu uma vantagem nas SERPs.
[Estudo de caso] Otimize o tráfego de pesquisa orgânica usando a análise de arquivos de log
Corrigindo o desperdício de rastreamento em subpastas sem importância
Este ponto parece semelhante ao último ponto sobre subpastas redundantes. Subpastas redundantes foram esquecidas e duplicadas perdidas de nossas versões atuais. A distinção entre subpastas redundantes e sem importância é que agora estamos falando de subpastas que ainda eram relevantes, mas não apenas páginas fundamentais para pesquisa.
A solução aqui foi tudo menos simples. Como não conhecemos a causa raiz da situação, precisávamos prescrever uma solução ampla que envolvesse um pouco de tudo, incluindo:
- Inserindo links internos estratégicos de nossas páginas de baixa prioridade (mas altamente rastreadas) para nossas páginas de alta prioridade otimizadas para SEO
- Reorganizando o mapa do site para incluir páginas mais importantes na parte superior do arquivo .xml
- Revisando as informações de rel=”canonical” e meta robots em nossas páginas de prioridade mais alta
- Revisitar o arquivo robots.txt para garantir que nada estava sendo bloqueado que não deveria ser (os grandes sites de comércio eletrônico precisam verificar isso especialmente).
- Excluindo e removendo páginas desnecessárias
Limpando páginas mortas
Já havíamos realizado uma auditoria do site em que rastreamos o site e encontramos todos os 404 erros que um rastreamento interno do site poderia identificar.
Mas essa é a beleza de uma análise de arquivo de log, você não está extraindo dados limitados de seu próprio rastreamento interno. Você está vendo exatamente o que o Google está vendo. Essencialmente, é uma auditoria do site da perspectiva de uma pessoa de fora – a pessoa de fora mais importante: o Google.
A correção aqui foi simples, o que ajudou a compensar todo o tempo gasto no ponto anterior. Nós 301 redirecionamos essas páginas órfãs antigas para suas contrapartes otimizadas no site. Feito.
Os resultados de uma análise de arquivo de log
A melhor parte de nossa análise de arquivos de log para este cliente foram os resultados rápidos que eles obtiveram.
Como mencionado anteriormente, rendeu ao cliente um aumento de 25% na receita orgânica em apenas 30 dias após a implementação dos itens de ação acima.
Durante esse período, também vimos um pequeno aumento nas taxas de conversão para tráfego orgânico. Como esse aumento aconteceu durante uma temporada lenta, não há sazonalidade em jogo aqui. E o fato de que as taxas de conversão aumentaram significa que o tráfego não veio apenas em maior número, mas também tráfego qualificado.
O tráfego provavelmente era mais qualificado porque, depois de redistribuir efetivamente o orçamento de rastreamento que o site de nosso cliente tinha com o Google, chamamos a atenção para páginas mais baseadas em intenção, obtendo assim classificações melhores em palavras-chave de intenção mais alta. Isso significava que estávamos atraindo usuários mais abaixo no funil para as páginas certas para ajudá-los em sua jornada.
Pode parecer bobo, mas no 97º andar nosso credo é que fazemos da internet um lugar melhor. As análises de arquivos de log fazem isso porque compensam as deficiências dos rastreamentos imprecisos do Google. Isso traz páginas de maior qualidade para o topo das SERPs, tornando a experiência de pesquisa na Internet muito melhor para todos.
Da próxima vez que você se deparar com um problema de rastreabilidade, espero que não pense duas vezes antes de executar uma análise de arquivo de log, apresentar soluções e vê-las. Você verá seu site ganhar mais tráfego e conversões.