Ya, ya sé que tenemos Google Search Console para conocer (o mejor intuir) qué URLs está visitando Google, cuáles rastrea, cuáles indexa, cuáles dan error, etc.. pero los LOGS nos aportan información más completa sobre lo que los crawlers hacen en nuestra web.
ℹ️ Disclaimer: si tu ecommerce está en Shopify, no podrás acceder a los logs de servidor.
¿Te has despertado alguna vez con esa sensación horrible de que Google te está ignorando completamente? Ya sabes, esa paranoia justificada de que llevas semanas subiendo contenido nuevo y el buscador pasa de tu web como si fuera invisible.
Tranquilo, no eres el único. Nos encontramos con este drama casi a diario: clientes que nos llegan desesperados porque «Google no indexa nada» o «los bots no vienen por mi web». Y la mayoría de las veces, la respuesta está ahí mismo, en los logs del servidor, esperando a que alguien se tome la molestia de mirarlos.
Los logs son como el diario íntimo de tu servidor: te cuentan exactamente quién viene, cuándo viene, qué hace y por qué se va. Es información brutalmente honesta que no miente ni se inventa métricas bonitas para que te sientas mejor.
Hoy vamos a revisar las 7 señales más claras en tus logs que te están gritando por qué Google no rastrea tu sitio como debería. Y no, no hace falta ser un hacker para entenderlo.

Antes de empezar: ¿Dónde están mis logs?
Si nunca has mirado los logs de tu servidor (cosa que me parecería raro si estás leyendo esto), necesitas localizarlos primero. En la mayoría de hostings los encuentras en:
- cPanel: Sección «Métricas» > «Registros de acceso sin procesar»
- Plesk: «Registros» > «Registros del servidor web»
- Hosting gestionado: Contacta soporte (algunos los tienen ocultos)
Los archivos suelen llamarse access.log o algo similar con la fecha. Y sí, al principio parecen jeroglíficos, pero enseguida le pillas el truco.
Y otra pregunta clave, ¿cómo reviso los logs? Bien, eso lo veremos en otro artículo más en detalle y en el curso claro, pero te diré que tienes varias opciones, desde herramientas muy específicas como SEO Log File Analyzer, algunas más generales como Semrush e incluso he preparado una herramienta gratuita, básica pero que te puede ayudar mucho a aplicar lo que veremos en este artículo -> analizador logs SEO
Señal #1: los bots de Google no aparecen por ningún lado
🚨 Qué buscar en los logs:
"Googlebot/2.1" - Si no ves esta cadena, tienes un problema
El síntoma más obvio: Revisas una semana de logs y ni rastro de Googlebot. Es como organizar una fiesta y que no venga nadie.

¿Por qué pasa esto?
La causa más común es que tengas bloqueado a Google sin darte cuenta. Y no, no me refiero solo al típico Disallow: / en el robots.txt (aunque también pasa). Hablo de bloqueos a nivel de servidor, firewall, o plugins de seguridad súper celosos.
He visto casos donde un plugin de seguridad detectaba las peticiones de Googlebot como «sospechosas» y las bloqueaba automáticamente. El cliente se volvía loco pensando que Google los había penalizado, cuando en realidad era su propio sistema el que echaba a los bots a patadas.
Cómo solucionarlo:
- Revisa el robots.txt (lo obvio): Ve a tudominio.com/robots.txt y asegúrate de que no hay un
Disallow: /general - Comprueba plugins de seguridad: Wordfence, Sucuri, iThemes Security… todos estos pueden bloquear bots
- Revisa el firewall del hosting: Algunos hostings tienen configuraciones muy restrictivas por defecto
- Verifica Search Console: Si Google puede acceder, te lo dirá en «Configuración» > «Rastreo» (haz una prueba con una URL)
Señal #2: Error 403 (Prohibido) en las peticiones de Googlebot
🚨 Qué buscar en los logs:
"GET /pagina HTTP/1.1" 403 - "Googlebot/2.1"
El problema: Google intenta acceder a tus páginas pero tu servidor le dice «ni hablar, aquí no pasas». Es como invitar a alguien a cenar y luego no abrirle la puerta.

¿Por qué sucede?
Los 403 suelen ser por permisos mal configurados. WordPress necesita permisos específicos para funcionar:
- Carpetas: 755 o 750
- Archivos: 644 o 640
Pero también puede ser por configuraciones del servidor demasiado restrictivas. He visto hostings que por «seguridad» bloquean cualquier petición que no venga de navegadores «normales», sin considerar que los bots son necesarios para el SEO.
La solución rápida:
Si tienes acceso por FTP, puedes cambiar los permisos masivamente. Pero ojo, no toques nada si no estás seguro. Es mejor contactar con tu hosting y explicarles que Google no puede acceder a tu contenido.
Señal #3: Tiempo de respuesta superior a 5 segundos
🚨 Qué buscar en los logs:
Tu servidor tarda una eternidad en responder (mira la columna de tiempo de respuesta)
El síntoma: Google viene, pide una página, y tu servidor se toma un café de 10 segundos antes de responder. El bot se impacienta y se va.
Por qué es crítico:
Googlebot tiene presupuesto limitado para rastrear tu web (crawl budget). Si cada página tarda 8 segundos en cargar, el bot dirá «paso de esperar» y se irá a rastrear webs más rápidas. Es pura economía de recursos.
En uno de nuestros clientes detectamos que tenían queries a la base de datos que tardaban 12 segundos cada una. Google venía, veía que todo iba a cámara lenta, y reducía drásticamente la frecuencia de rastreo. Solucionamos las queries lentas y en dos semanas el rastreo se multiplicó por cuatro.
Cómo identificarlo en los logs:
Busca patrones donde las peticiones de Googlebot coincidan con respuestas lentas. Si ves que sistemáticamente el bot pide páginas que tardan +5 segundos, ahí tienes tu problema.
Solución:
- Identifica las páginas problemáticas en los logs
- Usa herramientas como Query Monitor para ver qué las hace lentas
- Optimiza plugins, consultas DB, o cambia de hosting si es necesario
🎁 Échale un ojo a la checklist para WPO en Wordpress que nos curramos en VisibilidadOn
Señal #4: El bot se queda atascado en bucles infinitos
🚨 Qué buscar en los logs:
Googlebot pidiendo la misma URL cientos de veces o siguiendo redirects sin fin
El problema: Tu web está enviando a Googlebot por un laberinto sin salida. El bot entra, se pierde, y consume todo su presupuesto de rastreo dando vueltas.
Casos típicos que he visto:
- Parámetros URL infinitos: ?page=1&sort=date&filter=new&order=desc… que generan combinaciones infinitas
- Calendarios sin límite: Plugins de eventos que crean URLs para fechas hasta el año 3000
- Paginación rota: Páginas que linkan a «siguiente» infinitamente
- Redirects en bucle: URL A → URL B → URL A → URL B…
En un ecommerce detectamos que tenían un filtro de productos que generaba más de 50.000 URLs diferentes combinando colores, tallas, marcas y precios. Google se estaba volviendo loco intentando rastrear todas las variantes posibles.
Cómo detectarlo:
Revisa si en los logs ves patrones repetitivos de URLs muy similares o con muchos parámetros. Si Googlebot está pidiendo /productos?color=rojo&talla=m&precio=10-20&orden=desc&pagina=47, probablemente tienes un problema.
Solución:
- Usa robots.txt para bloquear parámetros problemáticos:
Disallow: /*?*sort=
Disallow: /*?*filter=
- Configura URLs canónicas para unificar variantes
- Limita la paginación a números razonables
- Usa nofollow en enlaces problemáticos
Señal #5: Google solo rastrea la home y se va
🚨 Qué buscar en los logs:
Googlebot accede a la página principal pero ignora el resto del contenido
El síntoma: Los logs muestran que Google viene regularmente, pero solo pide la home page y tal vez 2-3 páginas más. El resto de tu contenido es como si no existiera.

¿Por qué pasa?
Normalmente es por problemas de arquitectura interna. Si tu web no tiene enlaces internos claros, o si las páginas importantes están «enterradas» a 5 clics de profundidad, Google simplemente no las encuentra.
También puede ser por contenido duplicado masivo. Si Google detecta que el 80% de tus páginas son prácticamente iguales, deja de malgastar recursos rastreándolas.
Un caso real:
Teníamos un cliente con un blog de 500 artículos, pero Google solo rastreaba 20. El problema era que no tenían enlaces internos entre artículos, ni siquiera un «artículos relacionados». Para Google, solo existía lo que estaba en el menú principal.
Señal #6: Picos de rastreo seguidos de sequías completas
🚨 Qué buscar en los logs:
Días con cientos de peticiones de Googlebot, seguidos de semanas sin actividad
El patrón típico: Google viene como loco durante 2-3 días rastreando todo lo que puede, y luego desaparece durante semanas. Es como si fuera un sprint seguido de una hibernación.
¿Qué significa esto?
Normalmente indica que tu web tiene problemas de estabilidad o disponibilidad. Google viene, encuentra errores o lentitud, y decide «mejor vengo otro día cuando funcione mejor».
Señal #7: El bot accede pero devuelve códigos 404 masivos
🚨 Qué buscar en los logs:
"GET /pagina-importante HTTP/1.1" 404 - "Googlebot/2.1"
El problema: Google conoce tus URLs (las tiene indexadas o en algún sitemap), pero cuando viene a visitarlas se encuentra con que no existen. Es como ir a visitar a un amigo y que te hayan cambiado la cerradura.

¿Por qué ocurre?
Las causas más comunes son:
- Cambios de URL sin redirects: Cambiaste la estructura de permalinks y no pusiste redirecciones
- Contenido eliminado: Borraste páginas pero siguen en el sitemap o en enlaces internos
- Problemas de rewrites: El servidor no interpreta bien las URLs amigables
- Errores en .htaccess: Una línea mal puesta puede romper toda la estructura de URLs
Un caso que me dio pesadillas:
Un cliente actualizó WordPress y se cargó todo el archivo .htaccess sin darse cuenta. De repente, todas las URLs que no fueran la home devolvían 404. Google intentaba acceder a páginas que «sabía» que existían y se encontraba con errores por todas partes. El rastreo se desplomó un 90% hasta que lo detectamos.
Solución:
- Revisa que las URLs importantes funcionen manualmente
- Configura redirects 301 para URLs que hayan cambiado
- Actualiza sitemaps para eliminar URLs que ya no existen
- Verifica el .htaccess si usas WordPress
- Usa Search Console para ver qué URLs específicas dan error
Cómo hacer un diagnóstico rápido (en 10 minutos)
Si quieres hacer un chequeo express de tu situación, sigue estos pasos:
Paso 1: Descarga una semana de logs
Ve a tu cPanel/Plesk y descarga los logs de los últimos 7 días.
Paso 2: Busca a Googlebot
Abre el archivo con un editor de texto (mejor que sea potente, como Sublime Text) y busca «Googlebot». ¿Aparece? ¿Cuántas veces?
Paso 3: Revisa los códigos de respuesta
Mira los números después de las URLs solicitadas:
- 200: Todo bien 👍
- 404: Página no encontrada ❌
- 403: Acceso prohibido ❌
- 503: Servidor no disponible ❌
- 301/302: Redirección (normal en muchos casos)
Paso 4: Identifica patrones problemáticos
¿Ves muchos 404? ¿Muchos 403? ¿URLs raras con parámetros extraños? ¿Tiempos de respuesta altos?
Paso 5: Compara con Search Console
Ve a Search Console > Configuración > Estadísticas de rastreo. ¿Coincide la actividad que ves en los logs con lo que muestra Google?
Cuándo preocuparse de verdad
No todos los problemas en los logs requieren acción inmediata. Preocúpate cuando:
- Google no viene hace más de una semana (en webs activas)
- Más del 30% de peticiones de Googlebot devuelven errores
- El tiempo de respuesta promedio supera los 3 segundos
- Detectas bucles infinitos o patrones raros de URLs
- El rastreo cae drásticamente sin razón aparente

