☕ #ChuletaSEO 120 - Penalizado, levántate y anda
¡Buenos días!
Comenzamos la mañana del jueves con una selección de las mejores noticias del mundo SEO. Ya somos 4.647 suscritos a #ChuletaSEO, 15 lectores más que hace una semana.
No me cabe la menor duda de que los niños pequeños tienen mucha imaginación. Ahora, la parte de recoger creo que no lo llevan tan bien. Así me encontré el otro día el baño tras haberme ausentado unos minutos. Ni que decir tiene que antes de salir, el baño estaba como los chorros del oro. Que todo lo malo sea esto.
NOTICIAS DESTACADAS
📢 Experiencia y usabilidad
Google eliminará el informe de Experiencia de Página en Search Console con el objetivo de simplificar las cosas. Los informes de core web vitals y https seguirán disponibles. Nadie lo echará de menos. Nadie.
Consejos de Google para evitar el contenido duplicado.
A alguien se le ha ocurrido la idea de hacer un podcast con NotebookLM sobre las patentes de Google. Se acabó el leer interminables documentos.
Perplexity comienza a probar anuncios como preguntas promocionadas en EEUU. Las respuestas a dichas preguntas serán generadas por la IA.
💡 Ecommerce
Integración de Google Maps y la búsqueda de productos. Paso importante para potenciar las ventas locales. Descubre disponibilidad en tiempo real y busca productos específicos cerca de ti. Asegúrate de que tu esquema de productos, GBP y Merchant Centre estén actualizados.
Guía de Google Search Console para optimizar tus búsquedas locales.
Google avisa: no te obsesiones con la estructura de tus URLs. No son tan importantes más allá de una configuración básica y lógica.
Entendiendo qué significa el volumen de búsqueda mensual de los términos en Google.
134 consejos SEO (ni uno más, ni uno menos) para comercios.
Cómo identificar páginas con baja calidad gracias a este script de Python. Analiza el ratio de compresión del texto: diferencia entre las palabras únicas y palabras totales.
📈 Prácticas poco recomendadas
Los grandes sitios pierden millones al caer sus estrategias de afiliación. Google está siendo determinante en su estrategia, si no es el core de tu negocio, no posicionarás. Forbes y CNN, entre los grandes perjudicados.
GA4 estrena el historial de acceso a datos y uso de cuotas de la API, lo que simplifica la gobernanza de datos y el control de usuarios.
Identificados perfiles AI falsos para generar enlaces a través de plataformas como Qwoted.
Tres maneras de bloquear a los robots de IA para que no utilicen tu contenido.
Microsoft comparte consejos para posicionar en búsquedas de IA.
💻 Bloqueo a noticias europeas
La prueba de Google para eliminar temporalmente las noticias europeas en Google news ha sido detenida por un juzgado Francés. El objetivo era proporcionar a los reguladores y editores más datos sobre cómo se utiliza Google para acceder al contenido de noticias. De momento, seguirá adelante en otros países, entre ellos, España.
Consejos para tus estrategias SEO internacionales. Y de regalo, la presentación de Natalia Witczyk sobre cómo utilizar GSC para configurar y analizar tus estrategias internacionales.
Magnífica recopilación de Nelson Djalo sobre las diferentes API que podemos utilizar en nuestros proyectos.
Librería en Python para conectar con Bing Webmasters Tools.
🎯 Actualización core
Caso de éxito de una penalización HCU. De los tres proyectos SEO que inicié este año con penalizaciones HCU, puedo decir orgulloso que hemos conseguido recuperar todos ellos. El último, un medio digital que había perdido casi el 90% de su tráfico original, vuelve a la carga tras el despliegue de la core update del pasado día 11. Voy a crear una entrada específica para detallar cómo hemos conseguido este logro que nos ha llevado casi 11 meses de trabajo.
📚 UNA REFLEXIÓN
La pregunta del millón cuando identificamos algo mejorable en una página: ¿Merece la pena derivar recursos para solucionarlo?. Saber priorizar las acciones con los recursos disponibles, para mí es la clave que diferencia a un buen SEO.
🏆 CONSEJO SEO
Usa herramientas para hacer seguimiento y definir alertas
En algunos proyectos SEO necesito monitorizar de manera constante ciertos parámetros para asegurarme de que nunca falla nada y que la experiencia que ofrecemos tanto a usuarios como buscadores, es la mejor posible.
Para esto hay varias formas, pero yo suelo utilizar mis propios scripts (rastreo diario) o delegar en plataformas especializadas. En este caso podemos ver que esta semana hemos tenido un ligero problema de enlazado interno que ha resultado en cerca de 3k errores, que ya se están resolviendo.
Afortunadamente los cambios que ocasionaron el problema se realizaron el lunes y no un viernes, dado que eso hubiera ocasionado fallos durante el fin de semana que nadie hubiera podido gestionar.
En estas herramientas diferencio dos enfoques:
Errores: para saber cuando ha fallado algo y qué acciones correctivas debemos implementar.
Cambios: en el caso de que seamos muchos equipos trabajando sobre la web, no es posible controlar ni conocer todos los cambios que se van haciendo, de ahí que también establezca alertas para cuando se identifiquen cambios de título, contenidos, etiquetas, etc.
🤔 Pregunta de los lectores
“Google está dejando de indexar mi sitio porque dice que devuelve un 403. EN Bing sí estoy posicionando y todas las pruebas que realizo me devuelven 200OK, ¿dónde está el problema?” - Eduardo
Respuesta: El código 403
es un código de estado HTTP que indica que el servidor web ha denegado la solicitud del cliente (generalmente un navegador web) debido a que no tiene permiso para acceder al recurso solicitado. Sin acceso a tu perfil de Google Search Console, lo que se puede hacer desde fuera son dos cosas:
Inspeccionar URL en GSC: para ver qué código de estado devuelve la página al robot de Google. Si devuelve un 403, significa que lo estamos bloqueando y por ende, nuestra página no puede rastrearse ni indexarse.
Validar con la herramienta de resultados enriquecidos: utiliza el mismo user-agent que el robot de GSC, por lo que debería arrojar el mismo 403.
Emular una navegación como Googlebot: desde nuestro navegador utilizaremos el user-agent de Google para determinar si podemos acceder a la página y qué código HTTP nos devuelve.
Si en todos los casos devuelve un 403, muy posiblemente la configuración de nuestro servidor o CDN está bloqueando el acceso del robot de Google. Revisa cómo está configurado y qué reglas se están usando. También puede detectar a Googlebot cuando accede a tu página y analizar el log del servidor.
🔗 El enlace de la semana
[Recurso] Automate Google Search Console URL Removal Tool: A través de este código, guardado como favorito en nuestro navegador, podremos automatizar el envío de URLs a eliminar del índice de Google. Tan sólo tendremos que tener un fichero con las páginas a eliminar y el script hará el resto.
🤖 Inteligencia Artificial y SEO
SEO programático
Fabián comparte en LinkedIn este interesante flujo de trabajo con las plataformas Make, OpenAI (ChatGPT) y Wordpress, para ejecutar una estrategia de SEO programática. Podremos generar decenas de contenidos en unos pocos minutos.