Cómo salir de una penalización de Google Phantom Update
El pasado mes de Abril Google hizo una actualización de su algoritmo conocida como Google Phantom Update que hizo que algunas páginas cayeran vertiginosamente en los resultados de búsqueda. En este post te contamos cómo detectar si tu página ha sido penalizada por esta actualización del algoritmo y cómo salir de ella.
A finales del pasado mes de abril y principios de mayo algunas web como HubPages dieron la voz de alarma porque detectaron grandes pérdidas de posiciones en los SERPs y descensos de tráfico injustificados. En los siguientes días se sucedieron importantes cambios con webs que descendían rápidamente en los resultados de Google, llegando a perder incluso un 20% de tráfico y otras que ascendían escalando muchas posiciones rápidamente sin haber hecho cambios en su site, lo que apuntaba a una importante actualización en el algoritmo de Google.
Tras varios días de cambios en los SERPs Google descartó públicamente que se tratara de una actualización de Panda o Penguin pero reconoció que su algoritmo está actualizándose continuamente y que podrían haberse hecho algunos cambios en el mismo, manteniendo un secretismo en torno a ellos que parece que será la nueva política de Google en cuanto a las actualizaciones de su algoritmo.
A falta de que Google diera un nombre a esta actualización, desde los círculos SEO se le bautizó como “actualización fantasma”, más conocida por su nombre en inglés “Google Phantom Update”.
¿Qué es Google Phantom y cómo ha afectado a los resultados de búsqueda?
Como los cambios en la valoración de factores que ha hecho este algoritmo no han sido publicados por Google, todo lo que sabemos sobre él son deducciones tras lo observado en los resultados de búsqueda.
Esta actualización del algoritmo está en la línea de los de Mountain View de penalizar el contenido de baja calidad y con Google Phantom ha penalizado páginas con los siguientes problemas:
- Contenido pobre o de baja calidad.
- Páginas que tengan gran cantidad de filtros y etiquetas indexados que generan contenido duplicado.
- Webs que generen una mala experiencia de usuario por problemas de diseño.
- Páginas que funcionan como granjas de enlaces, aunque sea por guest posting.
Cómo detectar una penalización de Google Phantom y salir de ella
Unas pocas semanas después de la actualización de Google Phantom se pusieron en contacto con nosotros desde un e-commerce que había sufrido una pérdida de tráfico injustificada para que estudiáramos el origen y le propusiéramos soluciones.
Lo primero que hicimos fue estudiar su analítica, donde pudimos comprobar que su descenso se había producido por una bajada de tráfico orgánico sin que hubieran realizado cambios en su web.
Tras poder comprobar que se trataba de orgánico, con la ayuda de las herramientas Semrush y Sistrix hicimos un análisis de palabras clave, de sus cambios en posiciones de los resultados de Google y del índice de visibilidad.
Como podemos ver en esta imagen su índice visibilidad experimentó un descenso grande y de forma brusca, lo que hacía pensar en una posible penalización algorítmica. El descenso se producía a finales de abril y continuaba en mayo, lo que nos hizo sospechar que pudiera haber sido afectada por Google Phantom Update.
Analizando su contenido pudimos ver que dentro de esta web se daban las siguientes características:
- Contenido pobre en categorías, subcategorías y familias de productos.
- Contenido escaso en fichas de producto o contenido copiado.
- Contenido interno duplicado.
- Filtros de productos indexados que generaban contenido duplicado.
Con todo esto pudimos concluir que el e-commerce había sido penalizado por el algoritmo de Google y su actualización fantasma. En ese momento planteamos las siguientes medidas para salir de la penalización de Google Phantom:
- Mejora del contenido de categorías, subcategorías y familias de productos, ampliándolo con palabras clave de negocio que no se estaban trabajando hasta ese momento.
- Creación de contenido original en las fichas de productos
- Desindexar los filtros y tags que generaban contenido duplicado.
- Mejorar su estructura interna de enlaces.
Aplicar algunas medidas como estas es complicado en según qué casos. En éste en concreto se daba la peculiar circunstancia de que algunos de los filtros que generaban contenido duplicado habían estado situados en buenas posiciones de resultados de búsqueda hasta finales de abril, por encima de sus páginas de categorías o familias de productos.
Aunque habían perdido posiciones muchas de esas URLs, seguían estando en la primera página de resultados frente a otras categorías o fichas de productos que no aparecían y, desindexar esos filtros suponía desaparecer temporalmente de la primera página de Google con esas URLs. Además,sabíamos que tras la implementación de estas mejoras tardaríamos un tiempo en volver a aparecer en esas posiciones, ya que desde que se realizan cambios como estos hasta que Googlebot pasa por toda la web y se indexan, pueden transcurren varias semanas, por lo que en situaciones como esta lo más normal es que el responsable o propietario de la web o e-commerce tenga reparos a aplicar estos drásticos cambios.
El cliente confió plenamente en nuestras sugerencias y, aunque tras la aplicación de todos estos cambios la web siguió sufriendo caídas de tráfico debido a lo que comentamos en el párrafo anterior, el índice de visibilidad comenzó a recuperarse en poco más de 6 semanas y actualmente sigue mejorando su posicionamiento y tráfico orgánico tal y como puede apreciarse en esta gráfica de su índice de visibilidad.
Y vosotros, ¿habéis visto algún caso similar o habéis sufrido cambios en vuestro tráfico tras la actualización Google Phantom?
Mis blogs son tan sencillos que por ahora no me preocupan mucho sus analíticas.
Pero el cuidado de la calidad de los artículos de opinión y de las fichas de productos o servicios es algo que siempre conviene mantener, aunque no hubiera ‘arañas fantasmas’.
Buenas, genial artículo, como ampliación os puedo comentar que en casos similares donde es urgente dexindexar contenido yo he conseguido ganar algo de tiempo haciendo que el contenido a dexindexar devuelva el estado 410.
Saludos