Chuleta SEO #11 - Dominando las Core Web Vitals
La semana pasada di un webinar sobre Google Analytics 4. Si te lo perdiste, te dejo la presentación.
Noticias oficiales de buscadores
Dando sentido a las Core Web Vitals (CWV)
Aunque su integración como factor SEO no ocurrió hasta junio de 2021 (Core Web Vitals algorithm update), hace poco han cumplido dos años entre nosotros. Aun así, siguen generando bastante dudas, tanto a nivel estratégico como técnico.
No ha sido fácil, pero con esfuerzo he conseguido una puntuación perfecta en alguna de mis páginas. Esta es la forma que tengo de trabajar: experimento en entornos controlados y ofrezco mis aprendizajes en los proyectos de mis clientes (y en esta newsletter).
Vamos a dar algo de luz sobre puntos clave. Lo primero, ¿de dónde salen los resultados que vemos?. Las CWV funcionan con dos conjuntos de datos:
Field Data (datos de campo)
Estos datos se generan a partir de los visitantes de nuestro sitio. Nos muestran la realidad de la experiencia de usuario porque se verán condicionados con aspectos externos a nuestra web, como tipos de conexión, geolocalización o dispositivo. Si el grueso de nuestros visitantes proviene de un país con una mala conexión, nuestra puntuación final será más baja, sin que nosotros podamos hacer nada.Lab Data (datos de laboratorio)
Estos datos son una simulación realizada en un entorno conocido y controlado. Se usa un robot de Google Lighthouse que simula un acceso a través de un dispositivo móvil y una conexión a internet promedio. El objetivo de estos datos es analizar una situación de ejemplo y ofrecer información acerca de aspectos que estén entorpeciendo la experiencia de los usuarios.
A modo de resumen, los datos de laboratorio (simulados) nos servirán para investigar y mejorar nuestra página y los datos de campo (reales) serán los utilizados por Google para determinar si obtenemos una ventaja SEO o no.
Para profundizar más en este tema, os recomiendo el webinar que impartí con Siteimprove.
¿Por qué cambian los resultados de las CWV si no he hecho cambios sobre mi página?
La eterna pregunta. Si ejecutamos 10 test seguidos, seguramente veamos 5 resultados distintos (en algunos casos con una diferencia apreciable). Esto es debido a que a la hora de registrar los datos entran en acción aspectos ajenos a nuestra página y condicionados únicamente por el usuario y su conexión, como por ejemplo la congestión del nodo de Internet al que estén conectados o el procesador de su ordenador/móvil, entre otros.
En el vídeo de Google SEO office-hours de la semana pasada, John Mueller responde a un usuario que le hace esa misma pregunta.
Para algunos usuarios nuestra página carga rápido y para otros, no tanto. El resultado final que nos ofrecerá Google, será la media de todos ellos. Cuando emulamos (datos de laboratorio), el robot de Lighthouse también se verá afectado por esos valores de conexión y, aunque en menor medida, también podríamos obtener resultados diferentes.
La mejor aproximación de cara a monitorizar nuestra evolución de CWV es usar el CrUX dashboard o trabajar sobre las URL con peor puntuación en Google Search Console.
Simplificando los Sitemaps XML
Algunos campos de los sitemaps XML de imágenes y vídeos quedarán sin uso a partir de agosto. El objetivo es simplificar estos archivos para que sea más sencillo generarlos y procesarlos. Si los utilizabas, que sepas que ya no tendrán impacto SEO.
Y ya que hablamos de imágenes, en este vídeo de Google Search Central nos dan algunos consejos sobre cómo optimizarlas.
Denuncia los negocios fraudulentos en Google Maps
A partir de ahora contaremos con una opción para marcar un negocio como inexistente y agilizar así los trámites para que sea eliminado del índice. Un gran paso para limpiar de SPAM y fraude Google Maps.
Otras noticias SEO
La importancia de convertir los datos en conocimiento
Desde que comencé a dar formaciones de Google Analytics allá por el 2009 (en Foro Economía Digital), me gustaba recalcar que la analítica web es una herramienta de negocio que convierte datos en conocimiento. Si no logramos llegar a este punto, no lo estamos haciendo bien.
¿Sabes interpretar correctamente los datos de Analytics, Search Console o Semrush?, ¿sabes proponer acciones correctivas/prescriptivas basándote en la información que arrojan?. Si no es el caso, te recomiendo leer baseline analysis for your SEO strategy; básico pero útil.
Y como añadido, os dejo esta maravillosa recopilación de herramientas de inteligencia competitiva.
¿Problemas con el cacheado de tus páginas AMP?
La semana pasada os contaba que AMP no pasa por su mejor momento. Hoy me he encontrado un debate muy interesante en Reddit, en el que un usuario se quejaba de que al desactivar la versión AMP de su web, aquellas que ya estaba indexadas en Google, eran redireccionadas a la home en lugar de a la versión no AMP.
Esto para el SEO es catastrófico. John Mueller lo justificaba diciendo que la versión cacheada en Google no estaba (aún) actualizada y que podía acelerar el proceso haciendo peticiones update-cache para forzar el refresco.
¿Te falta información?, usa el log
El log del servidor, ese gran desconocido. Para mí, como SEO, me da una gran información adicional a la que obtengo desde herramientas como Search Console o Analytics.
Si no sabes cómo funciona o de qué manera extraer información de interés y cruzarla con la que ya tenemos, os recomiendo seguir esta guía de ahrefs (con template incluido).
No se trata de ver por dónde pasa el robot, sino de optimizar al máximo el tiempo que invierte en nuestro sitio (crawl budget) y asegurarnos de que impacta en las secciones que realmente nos interesan. Por ejemplo, en la imagen anterior queda claro que invierte gran parte del tiempo en /wp-content, una sección que no tiene aporte de tráfico orgánico.
Trabajar con logs no es complicado (siempre y cuando no generemos muchos datos) ya que tenemos opciones fáciles como SEO Log File Analyser de ScreamingFrog, donde podemos importar y visualizar la información de cualquier log.
Para opciones automatizadas, podemos utilizar un servicio cloud para almacenar los logs (Google Cloud, Amazon AWS, Azure, etc.) y Data Studio, PowerBi o similares, para analizar los datos. ContentKing acaba de estrenar una integración directa con Akamai y Amazon Cloud, lo que facilita aún más este proceso.
¿Podrá Google detectar contenidos generados por una inteligencia artificial?
Me ha gustado este artículo porque pone de manifiesto una realidad de nuestro sector: no siempre posiciona lo mejor y se invierten (por desgracia) muchos recursos en contenidos de baja calidad o autogenerados.
En ChuletaSEO #9 os hablé de cómo Google usa algoritmos de Inteligencia Artificial para detectar el SPAM; ¿podría esto ser considerado de la misma forma?. Quizá, al igual que identifica e ignora enlaces tóxicos, podría ocurrir lo mismo con este tipo de contenidos.
Respecto a un posible contenido duplicado, Google recomienda siempre el aporte de valor como factor diferencial.