Cuando nos enfrentamos a una auditoría SEO, es fácil perderse entre cientos de datos y métricas. Sin embargo, para que una estrategia funcione, debemos asegurar que los cimientos técnicos sean sólidos. Esta checklist resume los puntos críticos que debes revisar obligatoriamente para garantizar que Google pueda acceder, entender y clasificar tu contenido correctamente.

Sigue este orden lógico para detectar las carencias principales de la web.
1. Rastreo (crawling): asegúrate de que Google entra en casa
Lo primero es verificar cómo Googlebot recorre tu web. Si no puede rastrearla, no podrá indexarla.
- Archivo robots.txt: Verifica su existencia y correcta implementación. Asegúrate de que no estás bloqueando recursos importantes (CSS/JS) ni secciones vitales, pero sí estás bloqueando filtros, URLs parametrizadas o directorios de gestión que consumen crawl budget inútilmente.
- Códigos de respuesta: Analiza qué responde el servidor. Debes identificar errores 404 (contenido no encontrado) y, sobre todo, errores 5xx (errores de servidor), ya que estos últimos pueden provocar desindexación.
- Falsos 404: Revisa que las URLs que no existen devuelvan un código 404 o 410 real, y no un código 200 (falso positivo) o una redirección 301 a la home, lo cual confunde a Google.
- Análisis de logs: Si tienes acceso, cruza los datos de rastreo con los logs del servidor para ver qué URLs visita realmente Googlebot. Esto te permitirá detectar si está perdiendo el tiempo en URLs antiguas o huérfanas que no tenías controladas.
2. Indexación: controla qué aparece en Google
Una vez garantizado el acceso, debemos controlar la calidad de lo que se guarda en el índice de Google.
- Sitemap XML: Comprueba que el sitemap esté enviado a Search Console y declarado en el robots.txt.
- Higiene del sitemap: Un sitemap «limpio» solo debe contener URLs canónicas, con código 200 e indexables. Elimina cualquier URL con redirección (301/302), error 404, bloqueada por robots.txt o con etiqueta
noindex. - Etiqueta canonical: Revisa que todas las páginas tengan su canonical bien implementado para evitar contenido duplicado y consolidar la autoridad en la URL correcta.
- Directivas de indexación: Identifica qué páginas tienen la etiqueta
noindex. Asegúrate de que no estás bloqueando URLs de negocio por error y de que las páginas de bajo valor (como filtros o avisos legales) sí la tengan. - Contenido duplicado: Detecta si hay canibalizaciones o duplicidades, especialmente en fichas de producto con variantes (colores/tallas) que deberían gestionarse con canonicals.
3. Arquitectura web: organiza la información
La estructura de tu web define cómo se reparte la autoridad (PageRank) y facilita la navegación.
- Profundidad de rastreo (crawl depth): Identifica las URLs importantes que están demasiado lejos de la home (a más de 3 clics). Cuanto más profunda, menos autoridad recibe y más difícil es de rastrear.
- Enlazado interno: Revisa si estás aprovechando los enlaces internos para traspasar autoridad a las URLs de negocio (SEO Map) y si estás utilizando anchor text descriptivos.
- Huérfanas: Busca páginas que existen pero no reciben ningún enlace interno. Si no las enlazas, Google entenderá que no son importantes.
- Versión móvil: Confirma que existe paridad de contenido y enlaces entre la versión de escritorio y la móvil. Si los menús son diferentes, el traspaso de autoridad puede verse afectado.
4. WPO y renderizado: velocidad y accesibilidad
La experiencia de usuario y la capacidad técnica de lectura son factores decisivos.
- Renderizado JavaScript: Verifica si Google puede «ver» el contenido de tu web correctamente. Compara el HTML plano con el HTML renderizado (DOM) para asegurar que los enlaces y textos importantes no dependen de JS para cargarse.
- Core Web Vitals: Analiza los tiempos de carga (LCP, CLS, INP). Una web lenta no solo afecta al usuario, sino que reduce la eficiencia del rastreo de Googlebot.
5. Aspectos de servidor y seguridad
Detalles técnicos que garantizan la salud del sitio a largo plazo.
- Certificado SSL: Asegúrate de que todas las URLs se sirven bajo protocolo HTTPS y que las versiones HTTP redireccionan correctamente (301) a la versión segura.
- Redirecciones: Controla las cadenas de redirecciones (bucles) y evita enlazar internamente a URLs que a su vez redirigen a otras (enlace -> 301 -> 200). Corrige el enlace para que apunte directamente a la URL final.
- Configuración de dominio: Verifica que la versión con «www» y sin «www» no convivan duplicadas, sino que una redirija a la otra.


¿Quieres comentar este post?
Regístrate gratis o inicia sesión para poder comentar
Iniciar Sesión
Registrarse
Restablecer Contraseña