Consideraciones de SEO al migrar a un marco de JavaScript

Publicado: 2022-04-19

Cualquier actualización o cambio importante en su sitio web siempre debe realizarse teniendo en cuenta las consideraciones de SEO. Desde errores de robots.txt hasta redireccionamientos de página mal implementados, es muy fácil ver que sus clasificaciones de búsqueda desaparecen, literalmente, de la noche a la mañana.

Esto es igualmente cierto al migrar su sitio web a un marco de JavaScript. Con una planificación cuidadosa, puede asegurarse de que su sitio permanezca visible para los robots de los motores de búsqueda, evitar los riesgos y las trampas comunes que conducen a la pérdida de tráfico y preparar su sitio para un crecimiento futuro continuo.

Es un problema grande y complejo con muchos detalles técnicos a tener en cuenta durante la migración de su sitio web. Sin embargo, hay algunos errores comunes que debe evitar, así como algunos principios generales que pueden ayudarlo a guiarlo en la dirección correcta.

Estas son algunas de las principales preocupaciones de SEO al migrar a un marco de JavaScript.

Conservar URL importantes

Googlebot y los otros rastreadores de motores de búsqueda asocian el contenido del sitio web con las URL (así es como se vinculan a usted desde sus resultados de búsqueda), pero los marcos de JavaScript pueden romper el vínculo entre las URL estáticas y el contenido al actualizar las páginas dinámicamente.

Esto es especialmente cierto en el caso de las aplicaciones de página única (SPA), que necesitan un tratamiento especial para garantizar que las URL importantes del sitio web anterior se conserven y permanezcan visibles para Googlebot, para proteger su presencia existente en las SERP.

No se deje engañar si su página de inicio sigue apareciendo en la clasificación que le corresponde; esto podría ser una señal de que Google está rastreando con éxito la página de inicio de su SPA, pero no encuentra el contenido que se sirve dinámicamente en el lado del cliente.

Habilitar el acceso del rastreador

Se trata de algo más que desbloquear los rastreadores del motor de búsqueda en su archivo robots.txt. Los necesita para poder rastrear su sitio y ver su contenido, y para eso, es probable que necesite algún tipo de representación del lado del servidor.

Al implementar el renderizado del lado del servidor o el renderizado previo, le da a los robots de búsqueda una versión de su contenido tal como aparece después de que se haya ejecutado cualquier JavaScript, eliminando la carga de recursos de pedirles a los robots que rendericen el contenido de la página ellos mismos.

Esto no solo hace que cada página sea visible para los rastreadores, sino que también puede aumentar la cantidad de páginas y los niveles de la jerarquía de su sitio web que se indexan, al poner menos demanda en el presupuesto de rastreo por página de los robots.

Mejorar la capacidad de rastreo

Puede ayudar aún más a los robots presentando la información de una manera fácil de digerir. Piense en esto cuando implemente capacidades de JavaScript como eventos onclick y paginación de desplazamiento infinito.

Al tener en cuenta lo que los robots realmente pueden hacer, puede asegurarse de que su contenido sea visible para ellos dentro de esas capacidades. Como recompensa, es probable que una mayor parte de su contenido sea rastreado, indexado y clasificado.

Una ventaja adicional es que al crear una versión de su sitio web compatible con el rastreador, también puede mejorar la accesibilidad para algunos visitantes humanos, quienes pueden no tener JavaScript funcionando en su dispositivo cuando visitan su sitio.

[Estudio de caso] Aumente la visibilidad mejorando la capacidad de rastreo del sitio web para Googlebot

Paris Match se ha enfrentado a una problemática clara: auditar en profundidad su sitio, identificar sus puntos fuertes y débiles, determinar sus prioridades y corregir los factores de bloqueo del rastreo de Google. Los problemas de SEO del sitio web de Paris Match son los comunes de los sitios de noticias.
Lea el estudio de caso

Redirigir URL antiguas

Si no planea conservar las URL antiguas exactamente como están, pero tiene una fuerte presencia de búsqueda, considere implementar redireccionamientos permanentes para dirigir a los robots al equivalente más similar dentro de su nuevo mapa del sitio.

Esto preserva la autoridad del dominio y puede proteger sus clasificaciones, al menos hasta que cualquier contenido recién publicado se rastree e indexe por completo, momento en el que puede o no decidir eliminar las redirecciones anteriores, si esas páginas antiguas ya no generan un tráfico significativo.

Usa enlaces internos coherentes

Una vez más, se trata de la carga dinámica de contenido. Los marcos de JavaScript pueden desatar algunas capacidades geniales, como la capacidad de extraer datos de un recurso externo y usarlos para actualizar la página actual, en lugar de navegar a una URL diferente.

Para SEO, es mejor mantener el contenido relativamente estático y cargar una URL diferente al cambiar sustancialmente la página. Los rastreadores entienden mejor este enfoque, pueden mapear mejor su sitio web en su conjunto y es más probable que visiten e interpreten correctamente la nueva página.

La falta de disciplina en la vinculación interna es un escollo importante de muchas migraciones. Puede hacer que algunas páginas sean mucho más difíciles de rastrear para los robots y envía señales confusas sobre la importancia relativa de algunas páginas, en comparación con otras.

La importancia de la consistencia

Más allá de los enlaces internos, trata de ser coherente con todas las señales que envías a los motores de búsqueda. Esto es especialmente cierto si su sitio web carga solo una parte de su contenido a través del marco de JavaScript, ya que debe asegurarse de que las páginas de JavaScript se carguen y funcionen de manera similar a cualquier página HTML o PHP en su sitio.

Ejemplos de esto pueden incluir la resolución de URL con y sin una barra inclinada al final (ya sea que esto resuelva o redireccione debe ser consistente en todas las áreas de su sitio web), así como las mejores prácticas de SEO como implementar etiquetas canónicas (que nuevamente deben ser consistentes en términos de qué el contenido se considera canónico).

Más vale prevenir que curar, especialmente en lo que respecta a los rankings de búsqueda. Por lo tanto, intente comprender no solo cómo se muestra el contenido en su sitio web, sino también cómo se muestra, ya sea por representación del lado del cliente o del lado del servidor, y si su migración a JavaScript afectará la visibilidad del contenido en su sitio web. la próxima vez que se rastree.

[Estudio de caso] Evite que su rediseño penalice su SEO

Un año después del rediseño de su sitio web, EasyCash pronto se dio cuenta de que el rendimiento que esperaban no estaba allí. Identificaron y resolvieron varios obstáculos de SEO.
Lea el estudio de caso

¿Cambiará esto alguna vez?

El renderizado dinámico no es amigo del SEO debido a la naturaleza relativamente simple de los robots de búsqueda. En el futuro, es posible que veamos un Googlebot más complejo y capaz que pueda solucionar algunos de estos problemas, pero por ahora, la responsabilidad recae en los webmasters para ofrecer contenido de la manera más comestible posible.

Esto es así durante la planificación, implementación y gestión de cualquier sitio web que dependa de una presencia de búsqueda. Pero es de suma importancia durante las principales actualizaciones, actualizaciones y migraciones, incluida la migración a un marco de JavaScript.

Al tener en cuenta algunas de las trampas y las mejores prácticas descritas anteriormente, puede mantener sus ambiciones de SEO a la vanguardia de la migración de su sitio web y evitar el escenario de pesadilla de que un sitio web grande y rentable desaparezca de los SERP de la noche a la mañana.