Después de escribir mucho sobre las olas sinusoidales de las SERPs de Google que a veces afectan a sitios de todos los sectores, Michele De Capitani de Prima Posizione, Agencia de Marketing Digital, está listo para volver a hablar de ello, proporcionando una advertencia sobre la situación actual y algunas hipótesis personales.
¿Cuándo comenzaron estas fluctuaciones?
Las primeras manifestaciones se registraron a finales de febrero de 2007 y concluyeron antes del 20 de marzo de 2007. La segunda ola comenzó en los últimos días de junio de 2007 y parece no haberse detenido aún.
Veamos punto por punto qué tienen en común los sitios víctimas de esta particular condición de altibajos en los resultados del buscador de California.
¿Cómo saber si un sitio está en fase de fluctuación?
1) La forma más fácil, ay, es precisamente la más «dolorosa»; de hecho, basta con mirar el gráfico trazado por las visitas al sitio desde nuestro software de detección de estadísticas web. De hecho, desde este gráfico se focalizarán fácilmente todas las ondas sinusoidales que el sitio ha superado. Por ejemplo, si tomamos este ejemplo:
Aquí podemos ver el comportamiento de los visitantes (por lo tanto, los accesos desde Google «desafortunadamente») en el transcurso de los últimos 5 meses, con un bajón del sitio inicialmente por 1 día, la subida al día siguiente, el bajón durante aproximadamente 3 meses, la subida durante 15 días y la fase de fluctuación continua que caracteriza día a día este sitio.
Además, desde este gráfico es posible ver y cuantificar la frecuencia de las ondas sinusoidales, muy largas desde el principio hasta una semana antes de la exportación del Pagerank, mientras que ahora son más cercanas en el transcurso de pocos días.
2) Las páginas del sitio están correctamente indexadas en Google; para verificarlo, basta con realizar una búsqueda con site:www.nombredelsitio.com
3) El sitio no está penalizado. Para verificarlo, basta con utilizar algunas pequeñas consultas enumeradas en este otro post (Cómo saber si un sitio está penalizado en Google).
4) El sitio ya no está presente en las primeras posiciones de Google (primeras 2 páginas) para búsquedas con palabras clave que antes de la fluctuación llevaban tráfico al sitio. Normalmente, el sitio para estas keywords se encuentra aproximadamente entre 10 y 30 resultados antes de los resultados omitidos en la última página (alrededor de la posición 950).
5) No todas las keywords han desaparecido, sino solo las secundarias y la long-tail (cola larga, que significa la combinación/extensión de varias palabras clave; por ejemplo, la long-tail de «hotel roma» puede ser «hotel en Roma cerca de la estación y con vista al Coliseo»).
6) El sitio, para keywords históricas o principales, no parece sufrir «penalizaciones» en SERP (resultados de búsqueda) si no con alguna bajada «natural» de alguna posición (como máximo 5 o 6 posiciones). Esto permite que el sitio tenga una reducción del tráfico generado por Google del 90% y no del 100%.
7) La fluctuación no se hace relativamente al sitio ni mucho menos a la página, sino precisamente para cada keyword. De hecho, es posible que una página para keywords diferentes se presente de forma natural o en fluctuación.
¿Qué se muestra en SERP en lugar del sitio?
Gracias a algunas comparaciones y análisis con colegas y amigos de la web, puedo afirmar que, generalmente, en lugar de los sitios «degradados» se proponen resultados de búsqueda bastante singulares, además de los sitios que «merecen» el posicionamiento en el motor de búsqueda:
– Listado de directorios que contienen los backlinks al sitio en fluctuación (siempre que este haya sido incluido en los directorios).
– Sitios SPAM (spam engine, sitios que utilizan técnicas black-hat, etc.).
– Sitios con contenido duplicado.
– Sitios carentes de contenidos válidos e interesantes para el usuario final (por ejemplo, un sitio de comercio electrónico que ofrece materiales similares pero no posee los que se buscan).
¿Qué tipología de sitios se han visto afectados?
A diferencia de las fluctuaciones anteriores, asociadas a sitios nuevos con poca popularidad y escaso TRUST, la fluctuación de finales de junio ha afectado a bastantes sitios muy autorizados con cientos de backlinks, contenidos válidos tanto a nivel SEO como para los usuarios.
Además, parece no haber ninguna asociación entre la naturaleza de los sitios afectados. De hecho, se han degradado sitios de internet:
– E-commerce
– Corporativos/Institucionales
– Con/sin Adsense
– Desde industriales hasta de contenido para adultos.
– Etc.
¿Cuándo se presentan estas fluctuaciones?
El destino quiere que el inicio o el fin de las fluctuaciones coincida con la exportación/actualización del Pagerank. Es mucho más complejo encontrar la conexión entre estas dos acciones realizadas «simultáneamente» por Google.
¿Por qué estos sitios sufren tales penalizaciones?
Difícil de decir, pero lo que sí puedo decir es que la hipótesis de limpieza de las SERP ya no es fiable, dado que los plazos son demasiado largos y no garantizarían un buen servicio al usuario final.
Probablemente se trate de fluctuaciones debidas a la introducción/activación de nuevos algoritmos que Google prueba y vuelve a probar y evalúa los resultados obtenidos de las SERP.
¿Pero cómo puede salir un sitio de esta situación?
Mi sugerencia es siempre la misma, continuar la promoción del sitio como si nada hubiera pasado (sé que es difícil, pero actualmente no hay soluciones inmediatas) intentando crear contenido original y recopilar enlaces espontáneos, quizás también de sitios con alta CONFIANZA (posteriormente veremos cómo reconocer y captar la confianza de un sitio).
Lo ideal sería independizarse de Google, creando una comunidad siempre presente en el sitio mediante un blog o foro u otros servicios innovadores que prevean la fidelización del usuario.

Sé el primero en comentar