Chuleta SEO #18 - No te fíes de ningún informe
Google Search Console te oculta información
Desde hace años ha sido el elefante en la habitación: Google Search Console no muestra todas las palabras clave que generan tráfico en tu sitio web.
Se intuía, porque muchos sumatorios no salían, pero, al menos yo desconocía el porcentaje de términos afectados. Este estudio de Ahrefs estima que el 40% de las búsquedas podrían estar afectadas.
¿Por qué no tenemos acceso a toda la información?
Aquí se esgrime el tópico de la privacidad de ciertas búsquedas, pero es muy difícil de creer que pueda afectar a un porcentaje tan alto de los términos.
Quizá la verdadera razón sea un tema de rendimiento y recursos. Existen muchas búsquedas nimias que el equipo de GSC directamente ignorará (por volumen de búsquedas, impresiones, clics, etc.). Tenemos los totales, pero no el desglose de los términos que los han generado.
¿Qué podemos hacer al respecto?
Herramientas como Ahrefs, Semrush, Sistrix o similares nos pueden ofrecer un listado muy amplio de términos por los que posicionamos. El cruce de esas plataformas con GSC nos ayudará a minimizar el gap de información, aun así nunca tendremos la certeza absoluta de qué términos nos ha ocultado Google ni qué captación han generado.
Recomendaciones más accesibles en Google Search Console
Ya están disponibles las nuevas agrupaciones de recomendaciones en los informes de Search Console. No afecta a los datos, sólo a su visualización.
La evolución de las Core Web Vitals
En la búsqueda de la página perfecta, Google está experimentando con la métrica INP (Interaction to Next Paint) para ser incluida dentro de las Core Web Vitals en sustitución de la actual FID (First Input Delay).
Tal como se comentó en GoogleIO, la métrica FID da falsos positivos; puede obtener un valor correcto al comienzo de la interacción, pero luego no ser adecuado. INP busca medir el impacto de todas las interacciones del usuario y no solo la primera, con lo cual el valor obtenido será más preciso y fiel a la realidad.
Interesante saber cómo funciona la compresión JPEG, una de las más utilizadas en la red.
Mantén tus páginas ligeras para evitar problemas
Google ha puesto coto al tamaño de una página que está dispuesto a rastrear e indexar: 15MB. Así lo ha especificado en su guía oficial y luego ha explicado con más detalle en esta publicación.
Googlebot rastreará los 15 primeros megas de cada página (sin contar imágenes, vídeos u otros elementos adicionales como ficheros CSS o JS, que son analizados aparte), así que nos interesa mantener nuestras webs ligeras.
A través de la herramienta de Inspección de URL de GSC, podemos validar si ha rastreado y renderizado toda la URL o si hay secciones que han sido descartadas por estar más allá del límite permitido, aunque en realidad, muy pocas páginas se verán afectadas.
¿Cómo se despliegan los cambios de algoritmo de Google?
John Mueller explica en AskGoogleBot cómo funciona el despliegue de los algoritmos en el buscador. En muchos casos se lanza primero en un idioma o mercado y, cuando se confirma que todo funciona bien, se distribuye a los demás.
Cambios en el rastreo de Googlebot
La guía oficial ha sido actualizada para mostrar nueva información acerca de la interacción del robot de búsqueda con el fichero robots.txt.
Entre las novedades, destacaría lo siguiente:
Si no existe el fichero robots.txt, Googlebot asume que puede rastrear todo el sitio.
Si hay problemas con el robots.txt, dejará de rastrear el sitio durante 12 horas. Después, durante los siguientes 30 días, usará las instrucciones del último robots.txt al que tuvo acceso y seguirá intentando acceder al nuevo periódicamente.
Si no lo consigue, pero la página principal del sitio está disponible, Google actuará como si no hubiera ningún archivo robots.txt y rastreará el sitio sin restricciones.
No te obsesiones con indexar el 100% de tus páginas porque es casi imposible.
The State of Linkbuilding 2022
Otro año más tenemos acceso a uno de los informes más completos sobre estrategias de enlazado que recopila tácticas y experiencias de expertos de todo el mundo. Un informe con mucho valor que merece la pena leer con detenimiento.
Errores que afectan a la conversión
Interesante artículo que expone 17 errores de contenido que afectan al ROI del negocio. Lo cierto es que son cosas básicas, pero que a menudo se tienden a olvidar.
¿Deber pagar Google por los contenidos de la Wikipedia?
En la newsletter de la semana pasada, comenté cómo Google canibaliza las búsquedas orgánicas para mantener a los usuarios dentro de su plataforma.
El hecho de poder mostrar contenido de la Wikipedia directamente en las SERP, lo hace posible. La fundación que da soporte y mantiene a la Wikipedia ha lanzado un servicio de pago, Wikimedia Enterprise, para las empresas que interactúan con sus contenidos. Una forma de mejorar el acceso a su contenido, previo pago de una cuota.
Google siempre se podrá ahorrar esos costes dando visibilidad a los resultados orgánicos, aunque imagino que le saldrá más beneficioso pagar y usar dicho contenido para cualificar las búsquedas de los usuarios.