Razones por las que tu web ha perdido tráfico

Razones por las que tu web ha perdido tráfico

Tabla de contenidos

La causa más común de una caída repentina en el tráfico de una página web es una actualización reciente del algoritmo de búsqueda. Penalizaciones, redireccionamientos, reglas incorrectas de robots.txt y pérdidas de clasificación son todas las demás razones válidas por las que se puede ver una caída en el tráfico de un sitio web.

Afortunadamente, en la mayoría de los casos, si sufres una disminución repentina del tráfico, hay un conjunto de cosas que puedes comprobar además de lo que he mencionado anteriormente. Esperamos que, al final, seas capaz de diagnosticar por qué las cosas han podido variar.

A continuación vamos a repasar las causas más comunes de esa perdida de tráfico repentina que has experimentado en tu sitio web.

Actualizaciones de algoritmo

Google no se oculta ante el hecho de que publica múltiples actualizaciones a lo largo del año, algunas más significativas que otras. Lamentablemente, tratar de conseguir detalles sólidos sobre los cambios es sinceramente como tratar de obtener sangre de una piedra.

Sin embargo, una manera fácil de medir si tu sitio puede haber sido golpeado por una actualización de algoritmo es vigilar de cerca los cambios confirmados por Google.

Pero, con diferencia, la forma más fácil de obtener información sobre los cambios de algoritmo es hacer uso de herramientas como Mozcast – de Moz.com y el sensor SEMrush de SEMrush. Si ninguno de ellos te gusta, Algoroo es otra herramienta de rastreo de algoritmos disponible gratuitamente.

Si encuentras que de hecho ha habido una actualización reciente, te recomiendo encarecidamente que pases un tiempo analizando los sitios que han sido más afectados. Intenta detectar cualquier correlación entre ellos y asegúrate de que tu sitio no sufra el mismo destino.

Errores de seguimiento

Incluso ahora, me sorprende la cantidad de webmasters y propietarios de sitios web que se las ingenian para sacar sus códigos de rastreo del sitio y se preguntan por qué el tráfico cae en picado.

Afortunadamente, es un error que se puede arreglar fácilmente, pero a largo plazo, se perderán datos, así que cuanto antes lo descubras y lo arregles, ¡mejor!

Si notas que de repente no hay sesiones grabadas en Google Analytics o que una etiqueta no se ha disparado, lo más probable es que los códigos de seguimiento tengan un error o hayan sido eliminados por completo. Si tienes acceso, comprueba que el código esté presente y sea correcto.

Por otra parte, contacta con tus desarrolladores y confirma que el código de rastreo está donde debe estar y está funcionando.

Reglas de robots.txt incorrectas

¿Está seguro de que tu sitio no está bloqueando a los motores de búsqueda para que no rastreen el archivo robots.txt? 

No es raro que los desarrolladores dejen los archivos robots.txt sin cambios después de migrar de un sitio web de desarrollo o de puesta en marcha. La mayoría de las veces, cuando esto sucede es completamente accidental.

Ve al archivo robots.txt de tu sitio y asegúrate de que la siguiente regla no esté presente:

User-agent: *

Disallow: /

Sitemap: https://www.example.com/sitemap.xml

Si es así, deberás eliminar la regla de inhabilitación y volver a enviar el archivo robots.txt a través de la consola de búsqueda de Google y del probador de robots.txt.

Errores en redirecciones

La mayoría de los sitios, especialmente los sitios web grandes tienen redirecciones en su sitio. La mayoría de las veces se agregan a través de un archivo .htaccess, o si usas WordPress, a través de un plugin para hacerte la vida un poco más fácil.

Siempre que añadas una nueva redirección permanente (301) a tu sitio, te recomiendo encarecidamente que la pruebes antes de enviarla a un entorno activo, sobre todo si añades grandes cantidades de redirecciones.

Para controlar que las redirecciones siguen funcionando como es debido, bastará con utilizar un rastreador web (mi preferido es Screaming Frog) y, mediante el modo de lista (Modo > Lista), pegar la lista de URL que se están redireccionando y rastrearlas, para luego analizar los códigos de respuesta y los destinos finales.

Errores de rastreo

Con la nueva Consola de Búsqueda, abre el Informe de Cobertura del Índice y comprueba si hay alguna URL que tenga un Error.

Cualquier URL en el informe de cobertura que tenga un error asociado no será incluida en el índice. Los errores típicos que se encuentran en este informe incluyen:

1.Errores del servidor
2.Redirige los errores
3.Las URLs que están bloqueadas por robots.txt
4.Las URLs que están marcadas con una etiqueta de noindex
5.Errores 404 suaves
6.Las URL que devuelven una solicitud no autorizada
7.URLs que no pueden ser localizadas (404s)
8.Errores de rastreo

Pérdidas de ranking

Otra razón muy común para ver disminuir el tráfico de los sitios webs se debe a la pérdida de las clasificaciones orgánicas.

Ahora bien, si estás rastreando tu desempeño usando un tracker de clasificaciones, entonces la solución del problema será mucho más fácil. Si no es así, entonces la mejor opción es utilizar los datos de la consola de búsqueda.

Utiliza el siguiente proceso para tener una idea de cualquier cambio de clasificación:

  • Utilizando Google Analytics y la consola de búsqueda o tu herramienta de rastreo de posiciones preferida (mi preferencia es AccuRanker), identifica cuándo empezó a disminuir el tráfico.
  • Toma una exportación de las palabras clave de clasificación antes y después de la caída.
  • Mediante el uso de hojas de Excel o G, crea una tabla y pega los datos uno al lado del otro.
  • Compara los cambios de posición.

Alternativamente, herramientas como SISTRIX también son realmente útiles para ayudar a identificar las palabras clave que han caído de la página uno o incluso los 100 mejores resultados.

Cambios en Sitemap XML

Si eres SEO sabrás  que solo las URL que devuelven el código de respuesta 200 y son indexables deberían ser visibles en tus mapas de sitio, a menos que hayas dejado intencionadamente las URL redirigidas para asegurarte de que los motores de búsqueda las encuentren más rápido.

Una razón por la que podrías estar viendo caer el tráfico es un cambio en tu mapa del sitio XML.

Rastrea las URL del mapa del sitio y asegúrate de que todas devuelvan una respuesta de 200 OK y que se incluyan también las nuevas páginas de destino o artículos. Si su sitio contiene 200 URL y sólo hay 50 en el mapa del sitio, debes regenerarlo y volver a enviarlo mediante la consola de búsqueda.

Acciones y penalizaciones manuales

Si un revisor humano con ojos de águila encuentra contenido en el sitio que va en contra de las directrices de Google, se emitirá una acción manual contra tu sitio. Puede encontrar más información sobre las directrices para webmasters aquí.

Puedes ver si tu sitio ha sido afectado por acciones manuales usando el informe de acciones manuales en la Consola de Búsqueda.

Las URLs están siendo des-indexadas

Google recientemente twitteó acerca de un error de “desindexación” que estaba causando que los sitios vean que las páginas importantes parecen ser retiradas del índice casi de la noche a la mañana. Pero este no es sólo un problema reciente.

Encontrar esas URL importantes que ya no están disponibles en los resultados de búsqueda puede ser un factor decisivo a la hora de investigar una pérdida repentina de tráfico en un sitio web.

  1. Revisa el informe de cobertura del índice en la Consola de Búsqueda por si hay algún error
  2. Usando la herramienta de inspección de URL, comprueba que las páginas importantes están todavía en el índice
  3. Si no, usa la opción “INDICE de peticiones” en la consola de búsqueda.

Canibalización de palabras clave

Si recientemente has creado un montón de contenido nuevo sobre un tema específico sin considerar la palabra clave “objetivo”, es posible que hayas sido víctima accidentalmente de un problema de canibalización de palabras clave.

La canibalización se produce cuando aparece un sitio web para una palabra clave con varias URL.

Si el tráfico se reparte en varias páginas o publicaciones, podrías estar perdiendo un valioso tráfico orgánico. La forma más fácil que he encontrado para destacar los errores de canibalización ha sido a través del uso de BigMetrics.io y el informe de canibalización.

Tan sólo tienes que crear una cuenta (versión de prueba o de pago) y conectarla a la propiedad de la consola de búsqueda y exportarla.

 

Cambios en el diseño de la SERP

Un cambio reciente en la forma en que Google y los motores de búsqueda muestran resultados orgánicos puede tener un impacto en tus niveles de tráfico. Por lo tanto, asegurarse de que eres adaptable y estás dispuesto a hacer cambios será de gran ayuda.

Google, en particular, ha realizado una serie de cambios en la forma en que se muestran los resultados; mostrando fragmentos destacados, gráficos de conocimiento y haciendo que los anuncios sean más prominentes, por nombrar algunos, lo que hace que la vida de las agencias seo y los profesionales de la optimización de los motores de búsqueda sea muy frustrante.

Analiza las palabras clave que estás apuntando; sólo porque alguna vez no activaron una función de SERP no significa que ahora no lo hagan. El comprobador de SERP de AccuRanker es genial para esto.

Si las palabras clave a las que te diriges activan fragmentos destacados y respuestas instantáneas, y no eres el fragmento destacado, vas a perder clics y tráfico en tu sitio.

Resumen Final

Ver caer el tráfico de un sitio web puede ser muy desconcertante, pero siempre hay una razón, y si hay una razón, normalmente se puede arreglar.

Si le quitas una cosa a este post, es que un descenso repentino podría deberse a varias razones combinadas, o incluso a una sola página clave rica en tráfico que ha caído del índice.

Asegúrate de investigar todas las vías posibles, y descubrirás rápidamente la causa y pondrás en marcha un plan de recuperación.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *