1. Home
  2. /
  3. Artículos
  4. /
  5. SEO Artículos
  6. /
  7. Mayo Google Core Update: ...

En este post voy a tratar de condensar algunas de las primeras impresiones que tengo tras la reciente actualización core del algoritmo de Google (04/05/2020). Para ello me baso en los resultados de sitios web en los que me encargo del SEO, u otra rama, y que me han parecido interesantes por pertenecer a distintas industrias o estar apostando fuerte en captación digital. Hay ganadores, pero también algunos perdedores. En cualquier caso, el update ha tenido un impacto reseñable, con incrementos y decrementos superiores al 20% en muchos casos. En estos casos concretos, las pérdidas de visibilidad tienen sentido y se pueden explicar.

En cuanto a industrias, coincidiendo con lo comentado en publicaciones de SearchEngineJournal o Sistrix, Google se fija, para bien o para mal, en sitios de salud, local business o sitios internacionales (con la particularidad de la música en Reino Unido)

En este post voy a tratar de desgranar posibles razones de la pérdida de visibilidad en algunos casos.

¿Cuáles son los ganadores y por qué?

En esta muestra de sitios ganan sitios de búsquedas locales (dominio L y dominio I) El dominio I contaba con un posicionamiento privilegiado en los 3 primeros resultados para las keywords estratégicas, que explica la tímida subida. EL dominio L aumenta el tráfico un 62% y recupera el tráfico perdido con la actualización de Enero, cuando los resultados bailaron de forma espídica durante semanas, quedándose por debajo de sitios con enlaces tóxicos o mal performance.

También observo una mejora en sitios de marca para sus búsquedas de marca precisamente en escenarios donde la marca es altamente competida. El dominio C, por ejemplo, se posicionaba por debajo de sus propios distribuidores, y el dominio B pierde algo de visibilidad de marca a favor de las páginas oficiales.

Observo ganancia también en sitios de afiliación – información comparativa – que tengo en propiedad y no he tocado desde black friday por falta de tiempo. Esperaba que fueran golpeados, pero tienen algunas fortalezas con respecto a competidores. Me interesa analizar con profundidad el uso del nofollow en los sitios de los competidores, que suelen tener una ingente cantidad de enlaces salientes con fines comerciales. En mi caso he tenido la credencial de API de productos sin actualizar y eso ha eliminado una importante cuantía de ellos en los últimos meses, pero no creo que esto haya impactado directamente.

Por último, Amazon gana claramente para búsquedas transaccionales (¿Habrá ganado poder con todo el enlazamiento nofollow que recibe, ahora que «cuenta»?) Se posicionan resultados en parte superior una semántica (title, etc) justita. En el próximo update debería reajustarse…

¿Cómo se explica la pérdida de visibilidad en algunos casos?

  • Los dominios B y F arrojan pérdida tras meses de crecimiento, en algunos casos no del todo merecido: se estaba obteniendo visibilidad para una gran cantidad de términos en poco tiempo, sin tener una gran autoridad, y en muchos casos con contenidos que no guardaban correspondencia con las preguntas que formulaba el usuario. Como bien sabemos, Google realiza core updates para recolocar y poner a punto las SERP ,teniendo en cuenta nuevos players, mejoras de los que había y el mayor entendimiento que tiene de las intenciones de búsqueda del usuario.

Tanto en perdedores como ganadores, y en sitios web propios, observé crecimientos sospechosos la semana antes. El crecimiento previo en los sitios perdedores podría ser un intento del algoritmo de compensar en algunas búsquedas el navajazo que nos iba a meter en otras («Google aprieta, pero no ahoga») De hecho, sucede que:

-Dominios que son golpeados aumentan el número de keywords con visibilidad, empezando a ranquear por muchos términos nuevos.

-Algunas de las nuevas keywords arrojan una posición media de 2 (debido a que el contenido aparece en el formato faqs.

  • SEARCH INTENT – En un análisis por intención de búsqueda, vemos que la pérdida de posiciones en el dominio B es aún mayor en términos transaccionales, donde pierde más de 12 posiciones. El análisis por verticales de contenido arroja luz, pues observo que la mayor bajada porcentual se atribuye a páginas de blog. Analizando relaciones de keyword-landing page vemos que, donde antes se posicionaban artículos para «comprar x», ahora se posicionan fichas de producto o páginas de categoría de tiendas online. Era de esperar. Google ha afinado sus resultados de acuerdo a la intención de búsqueda.
  • FRESHNESS – Los artículos del blog en dominios B y F no solo posicionan por términos transaccionales, sino también por términos ultra competidos de gran volumen de búsqueda. En las búsquedas informacionales más abiertas y genéricas, Google no parece tener muy claro qué contenidos ofrecer y resuelve la ambigüedad con un batiburrillo de resultados en primera página: ecommerce, prensa digital, wikis y artículos de blog. Pero hay un tipo de resultados que parece tener protagonismo en todos los casos: los artículos con una fecha de publicación reciente o relativamente cercana (entre 2019 y 2020)

Después de un tiempo todo pierde posicionamiento, por muy bueno que sea, y hay que actualizar contenido.

  • VELOCIDAD Y EXPERIENCIA DE USUARIO (FCP, FID…): Los dominios que han experimentado pérdida se caracterizan porque uno tiene un tiempo de carga pésimo y otro tiene un tiempo óptimo (en torno a los 3sg), pero obtiene peor tiempo en mobile. Las URL que en desktop desempeñan a una velocidad normal, son marcadas como lentas en Search Console debido a métricas como el FCP (First content paint) o FID (first interaction delay)

En los casos analizados, el tráfico desde dispositivos móviles arroja mayor decremento. De hecho, si vamos keyword por keyword, vemos como en mobile se pierde alrededor de una posición adicional (en desktop 3, en mobile 4, etc)

El el programa Web Vitals lanzado por Google, se remarca el impacto de estas métricas en la experiencia de usuario.

  • MARCADO ESTRUCTURADO – Tras el update, a raíz de las mejoras en support en Search Console para datos estructurados, empecé a recibir alertas de errores de reviews en fichas de producto de varios e-commerce. Días antes me había guardado un tweet con el lanzamiento de la nueva versión de Schema (el lenguaje estructurado reconocido y usado como estándar por los principales navegadores) Estas tiendas online usan Trusted Shops para tal fin, que es partner de Google.

La pérdida en fichas de producto no es muy pronunciada. Además, he revisado los datos estructurados y se trataba de errores temporales de pocas URL, nada de calado. También he revisado el marcado de los competidores y presentan las mismas advertencias sobre propiedades opcionales, que no son obligatorias. Sobre el análisis descartaría la influencia de los datos estructurados en la pérdida de visibilidad de fichas. Parece incidir más el fortalecimiento de sitios de marca y amazon. No obstante, creo que debemos darle cada vez más importancia, porque Google recurrirá a estos datos en su esfuerzo por entender mejor el contenido y por ofrecer determinados formatos de contenido en los resultados. John Mueller lo deja claro en este artículo cuando dice:

  • CONTENIDO (EAT Y THIN CONTENT) – Sin querer detenerme excesivamente en este punto, estos dos aspectos son palmarios en todo core update. El sitio B y F se caracterizan por tener una notable proporción de páginas con contenido pobre o nulo a nivel textual (sin una descripción o con descripción escasa y repetida). En este caso no parecen haber intervenido criterios EAT, porque los contenidos más susceptibles de perder por esta razón han mantenido su posicionamiento, pero conviene curarse en salud (nunca mejor dicho) para próximos upadtes.

Recomendaciones rápidas ante core updates

Voy a poner énfasis en algunos aspectos, no se trata de factores con mayor impacto. Creo que, a medida que «sube el nivel» de optimización generalizado en los sitios web y se recrudece la competencia, hay aspectos que van a tener cada vez más importancia. No obstante, empieza siempre por issues de calado según el tipo de sitio que gestiones (accesibilidad, orientación geográfica, etc)

Construye un buen report

> Construye un buen report y compara varios días de datos enteros para tener una foto más completa y evita fines de semana. Puedes empezar comparando la semana pasada (L-V) con la anterior. A mi me ayuda tener:

  • Gráficos desglosados por tipo de búsqueda (informacional, transaccional, comparativa, brand) Meter el detalle de número de keywords es muy útil.
  • Gráficos desglosados por grupo semántico (mesas vs sillas vs mamparas, etc)
  • Gráficos desglosados por vertical de contenido (páginas de ficha vs páginas de categoría vs páginas corporativas….), comparando métricas de search console con las propias de analytics para mismos verticales. Puedes filtrar por páginas de destino si el sitio tiene URL para cada plantilla bien diferenciadas o crear grupos de páginas desde dimensiones personalizadas que uses en analítica web.
  • No olvides datos de conversión (venta o leads) para focalizar en los términos que más negocio te generan. En este artículo de SEO orientado a negocio doy algunas ideas. En sitios posicionados para términos con mucho volumen, una pérdida del 40% en tráfico, puede corresponder con una perdida de solo el 10% de ingresos del canal.
  • Analiza keyword – landing page para ahondar en la relevancia de tus contenidos. Este dashboard de tablas dinámicas de Aleyda me parece útil a la par que sencillo para ver las bajadas de keywords más gordas de un vistazo.

Esfuérzate en entender a los usuarios y diversifica

> Trata de entender a los usuarios y la forma en la que Google trata de satisfacer sus búsquedas. En diversas ocasiones realizo un análisis de la apariencia de los resultados para una selección de keywords representativas de distintas intenciones de búsqueda. Me ayuda a definir arquitecturas y crear estrategias de contenido. Pongo un ejemplo a continuación que se puede construir cruzando datos de herramientas (Web Ceo Online y otros):

Los contenidos que se vuelcan en un u otro tipo de resultado tienen características bien identificables. Por ejemplo, los destacados son contenidos que suelen abordar un topic en profundidad desde multitud de perspectivas, mientras que las FAQs son artículos que responden de forma muy concreta y precisa a un tema y en muchas ocasiones los títulos de los artículos son preguntas ¿Cuál es el impacto de no hacer deporte en …?

> Entender el universo semántico de tu sitio va de la mano de trabajar en una estrategia diversificada. No pongas todos los huevos en una cesta y procura satisfacer distintas necesidades de búsqueda y distintos formatos que Google prioriza en las páginas de resultados. En las bajadas analizadas, observé grandes diferencias entre unos tipos de contenidos y otros. Ahora además podemos subir nuestro feed de productos en Google Merchant Center para obtener una visibilidad extra.

Trabaja el contenido, pero bien

> Cuida los criterios EAT en sitios de contenido sensible / YMYL (your money on your life) Por ejemplo:

  • Contenido pobre (en cantidad/calidad y formatos)
  • Páginas de quiénes somos / autores trabajada
  • Reviews y opiniones de usuarios
  • Uso y peso de la publicidad vs. contenido
  • Uso de lenguaje técnico y profesional:
    • huir de orientaciones semánticas muy forzadas
    • huir de frases sensacionalistas, exageradas, partidistas o sin criterio científico (ej: «estos ingredientes tóxicos son malísimos para tu salud y causan cáncer» frente a «Según un estudio realizado en la Universidad de Yale, la proporción de esta sustancia en tal producto es de x cantidad, una cantidad que no implica riesgo para la salud, pero que en síntesis con …puede..»)
  • Aspectos de confianza: navegación segura, sellos de confianza y reconocimientos.

> Pero no solo eso: mantener tus contenidos actualizados, compararlos con los de la competencia constantemente y evitar la canibalización son elementos esenciales en toda estrategia SEO. Los clientes sufren de ceguera con sus contenidos: siempre les parecen geniales.

Cuidado con el renderizado

> Trabaja la velocidad, pero no te fijes solo en el tiempo de carga. Cuida el renderizado de tu web aplicando los métodos pertinentes para distintos tipos de recursos (ej: defer para publi o contenidos relacionados; async para medición, etc) Ojo especialmente a bloqueos en parte superior por excesivo número y tamaño de recursos solicitados.

Ponte al día de datos estructurados y no olvides que menos es más

> Ponte al día con schema (versión 8.0) y datos estructurados, sin pasarte. En SEO los patrones abusivos se pagan caro (enlazamiento masivo, keyword stuffing, contenido duplicado…) No hay que «marcar» todo, solo lo más relevante en cada sitio. Por ejemplo, en un e-commerce podemos hacerlo con las reviews, en un blog de contenido técnico con los autores, etc.

Además, Google ha abierto el Merchant Center para orgánico y puede alimentarse del feed de datos que subamos ahí, pero también de los datos estructurados en páginas de producto, con resultados específicos de producto en Search console.

Sigue trabajando la autoridad de tu sitio

Si tu dominio tiene una vida corta aún y has perdido tráfico en búsquedas competidas, también se debe a que aún tienes que trabajar la autoridad. No te sorprendas si te han ganado visibilidad dominios con más de 10 años (o la archienlazada Amazon). El SEO es una carrera de fondo y el histórico también cuenta. Una estrategia de linkbuilding natural, pero ambiciosa, te ayudará a construir señales y contribuirá a la frecuencia de rastreo.

Seguiré analizando próximos días y recopilando opiniones. Hasta el próximo artículo dentro de mucho tiempo.

Referencias

https://webmasters.googleblog.com/2019/08/core-updates.html?m=1 https://www.searchenginejournal.com/google-may-2020-update-analysis/366740/
https://www.sistrix.es/blog/google-core-update-mayo-2020/ https://web.dev/vitals/
https://schema.org/version/8.0/schema-all.html https://www.searchenginejournal.com/google-structured-data-ranking/335781/