Crawl depth o profundidad de rastreo
El Crawl depth (profundidad de rastreo) es un concepto que mide la distancia mínima en clics de una página con respecto de la home. Pero no te quedes con esto, comprender su importancia, aprender a medirlo y optimizarlo es clave para trabajar la visibilidad de tu web.
![qué es el crawl depth](https://sergiocanales.com/wp-content/uploads/que-es-el-crawl-depth.png)
- ¿Qué es la profundidad de rastreo?
- Ejemplo práctico para comprender la profundidad de clics
- Cómo afecta el crawl Depth a la indexación de un sitio web
- Factores que afectan a la profundidad de rastreo
- 4 herramientas para medir los niveles de profundidad de rastreo
- El Reasonable Surfer y su relación con el Crawl Depth
- Consejos finales para optimizar el Crawl Depth
¿Qué es la profundidad de rastreo?
La profundidad de rastreo (o crawl depth) es, básicamente, una métrica que indica la distancia mínima, en términos de clics, que existe entre una página del sitio web y la página principal (homepage). Es decir, mide cuántos enlaces necesita seguir un bot de un motor de búsqueda, como Googlebot, para llegar a una página específica dentro de un sitio.
En una estructura de sitio web, las páginas se organizan jerárquicamente. Y en este aspecto, cuanto más lejos está una página de la homepage, mayor es su profundidad de rastreo y menos su importancia de cara a los motores de búsqueda.
Para ilustrar mejor el concepto anterior, te muestro como se establecen los niveles de profundidad:
- Nivel 0: Página de inicio.
- Nivel 1: Páginas enlazadas directamente desde la página de inicio.
- Nivel 2: Páginas enlazadas desde las páginas de nivel 1.
- Nivel 3: Páginas enlazadas desde las de nivel 2, y así sucesivamente.
De los niveles antes indicados, un "low crawl depth" se considera 1 ó 2, mientras que "high crawl depth" sería 3 ó más.
Ejemplo práctico para comprender la profundidad de clics
Para comprender mejor este concepto, vamos a tomar como ejemplo esta misma web. Si entras a mi home (sergiocanales.com) encontrarás un botón que dice "Consulta mi blog de SEO", el cual te lleva a dicho blog de SEO. Pues bien, al estar a un clic de distancia, tenemos una profundidad de 1.
![crawl depth screaming frog](https://sergiocanales.com/wp-content/uploads/crawl-depth-screaming-frog.png)
Así mismo, dentro del blog encontramos un artículo que explica "cuanto paga Google AdSense" por lo que estamos a un crawl depth de 2 clics.
![niveles de profundidad de rastreo](https://sergiocanales.com/wp-content/uploads/niveles-de-profundidad-de-rastreo.png)
¡A 1 clic de profundidad! Recuerda que en el crawl depth medimos la distancia más corta con respecto de la home.
Cómo afecta el crawl Depth a la indexación de un sitio web
La profundidad de rastreo influye en la capacidad de los motores de búsqueda para descubrir e indexar páginas. A menudo, las páginas que están muy "profundas" en un sitio son rastreadas e indexadas con menos frecuencia, o incluso pueden no ser indexadas. Esto afecta su visibilidad en los resultados de búsqueda.
Aquí te resumo los puntos clave para entender su impacto:
- Riesgo de no ser indexadas: Las páginas que requieren demasiados clics para ser encontradas corren el riesgo de no ser indexadas en absoluto, lo que impacta directamente en su visibilidad y tráfico.
- Dificultad para los bots: Las páginas que están demasiado profundas (más de 3-4 clics desde la página principal) son menos accesibles para los bots de búsqueda, lo que disminuye las probabilidades de que sean rastreadas.
- Crawl budget limitado: Los motores de búsqueda tienen un presupuesto de rastreo (crawl budget). Si muchas páginas requieren un esfuerzo adicional para llegar a ellas, podrías estar desperdiciando recursos en contenido poco relevante y dejando fuera páginas importantes.
- Demora en la indexación: A mayor profundidad, menor frecuencia de rastreo. Esto significa que tus páginas pueden tardar más en aparecer en los resultados de búsqueda, especialmente si actualizas contenido o publicas algo nuevo.
- Distribución de Autoridad (Page Rank): Las páginas más cercanas a la homepage suelen recibir más autoridad de enlace, lo que aumenta su potencial para posicionarse mejor en los SERPs.
![screaming frog tutorial basico](https://sergiocanales.com/wp-content/uploads/screaming-frog-tutorial-basico.png)
Te enseño a auditar tu web con Screaming Frog, para que identifiques y soluciones los problemas que están afectando tu SEO.
¡Comienza mi curso de Screaming Frog gratis hoy!
Factores que afectan a la profundidad de rastreo
La profundidad de rastreo de un sitio está determinada por varios factores, y entenderlos te permitirá optimizar tu estrategia:
- Estructura del sitio: Un sitio bien organizado con jerarquías claras y navegación eficiente facilita que los bots encuentren las páginas importantes rápidamente. Una mala estructura puede enterrar contenido clave y dificultar su indexación.
- Enlaces internos: Los enlaces internos actúan como caminos que guían a los bots a través de tu contenido. Una estrategia de enlaces sólida puede reducir la profundidad de rastreo al hacer que las páginas estén más conectadas y sean más accesibles.
- Redirecciones: Aunque las redirecciones de URLs son necesarias en algunos casos, en otros no lo son y lo único que hacen es incrementar los niveles de profundidad de tu contenido.
- Factores externos: La velocidad de carga de las páginas, la capacidad de respuesta del servidor y configuraciones como el archivo robots.txt o las etiquetas meta robots también afectan la capacidad de los bots para rastrear y acceder a contenido clave.
4 herramientas para medir los niveles de profundidad de rastreo
Medir y analizar la profundidad de rastreo es esencial para identificar problemas en la estructura de tu sitio web y optimizar su indexación. Para ayudarte con esta tarea, aquí te dejo las herramientas más útiles para evaluar el crawl depth:
1. Screaming Frog SEO Spider
Es mi herramientas de SEO técnico favorita y una de las más completas para analizar la arquitectura de un sitio web. Permite identificar la profundidad de cada página desde la homepage y detectar problemas como enlaces rotos o páginas huérfanas.
![crawl depth screaming frog](https://sergiocanales.com/wp-content/uploads/crawl-depth-screaming-frog.png)
- Cómo usarla: Configura el rastreo, ejecuta el análisis y filtra por «Crawl Depth» en el informe. Puedes ver claramente a qué nivel están las páginas y tomar decisiones para optimizar su acceso.
- Ideal para: Sitios grandes con muchas páginas, donde es clave identificar páginas que están enterradas en clics.
2. Ahrefs Site Audit
Ahrefs nos permite auditar la arquitectura de nuestro sitio y proporciona un desglose visual de la profundidad de indexación de todas tus páginas. Su interfaz amigable y sus gráficos facilitan la interpretación de los datos.
![medir nivel de profundidad o crawl depth](https://sergiocanales.com/wp-content/uploads/medir-nivel-de-profundidad-o-crawl-depth.png)
- Cómo usarla: Realiza un análisis completo del sitio, accede a la sección de «Estructura del Sitio» y revisa la métrica de «Crawl Depth» para cada URL.
- Ideal para: Analizar el impacto del crawl depth en términos de SEO técnico y planificar mejoras.
3. DeepCrawl
Es una herramienta más bien orientada a grandes sitios y equipos de SEO técnico. Ofrece informes detallados sobre el crawl depth y problemas relacionados, como enlaces rotos o redirecciones excesivas.
- Cómo usarla: Configura un proyecto, realiza un rastreo y filtra los informes para identificar páginas profundas que necesiten ajustes.
- Ideal para: Empresas o agencias que manejan sitios web complejos y con grandes volúmenes de contenido.
2. Google Search Console
Aunque no muestra directamente la profundidad de rastreo, nos ayuda a entender cómo Google rastrea e indexa tu sitio. En el informe de «Páginas» (antiguo informe de «Cobertura»), puedes identificar páginas que no se han indexado y revisar las recomendaciones del buscador.
![Páginas indexadas - informe de Cobertura en Google Search Console](https://sergiocanales.com/wp-content/uploads/Paginas-indexadas-informe-de-Cobertura-en-Google-Search-Console.png)
- Cómo usarla: Analiza las URLs que aparecen con problemas en los informes de rastreo y comprueba si tienen un número excesivo de clics desde la página principal.
- Ideal para: Ver cómo interpreta Google la estructura de tu sitio y ajustar el contenido en consecuencia.
El Reasonable Surfer y su relación con el Crawl Depth
El Reasonable Surfer es un modelo desarrollado por Google que intenta simular cómo un usuario navega de manera razonable por un sitio web. Básicamente, asigna diferentes niveles de importancia a los enlaces en función de su probabilidad de ser clicados, en lugar de tratarlos todos por igual. Factores como la posición del enlace, el contexto del texto ancla y la visibilidad en la página influyen en este cálculo.
El crawl depth y el Reasonable Surfer están conectados porque este modelo también afecta cómo los motores de búsqueda priorizan el rastreo de enlaces:
- Prioridad en enlaces cercanos: Los enlaces en páginas con menor profundidad de rastreo (cercanas a la homepage) suelen recibir más peso en el modelo, ya que son más accesibles y es más probable que un usuario los clique.
- Rastreo inteligente: Si un enlace está enterrado en páginas profundas, no solo es menos probable que sea rastreado debido al crawl depth, sino que el Reasonable Surfer también puede reducir su importancia porque considera que tiene menos probabilidad de interacción.
Consejos finales para optimizar el Crawl Depth
Como ya te habrás dado cuenta, mantener un crawl depth eficiente es clave para mejorar la indexación de tus páginas y maximizar su visibilidad. Para ello, y como recompensa por haber llegado hasta aquí, te dejo 5 consejos finales.
- Mantén las páginas importantes a 3 clics o menos: Las páginas clave, como productos, servicios o contenido destacado, deben ser fácilmente accesibles desde la página principal.
- Crea una estructura de enlaces internos sólida: Usa enlaces estratégicos para conectar páginas relacionadas y facilitar el acceso a contenido profundo. Esto no solo mejora el crawl depth, sino también la experiencia del usuario.
- Optimiza antes el crawl depth que los backlinks: en una estrategia de link building tienes que hacer antes el ejercicio previo de optimizar la profundidad de rastreo para asegurar que el page rank se distribuye correctamente.
- Usa sitemaps XML: Asegúrate de incluir todas las páginas relevantes en tu archivo sitemap para que los bots puedan encontrarlas fácilmente, independientemente de su profundidad.
- Evita enlaces rotos y redirecciones excesivas: Estos problemas dificultan el rastreo de los bots y aumentan innecesariamente el crawl depth. Revisa regularmente tu sitio con herramientas como Screaming Frog.
- Simplifica la arquitectura del sitio: Si tienes una estructura muy compleja, considera agrupar el contenido en categorías claras y fácilmente navegables.
Soy consciente de que para algún SEO más avanzado estos consejos pueden parecer un poco básicos pero justamente por saltarnos las bases y complicarnos la vida con otros aspectos, dejamos de rankear como deberíamos.
![Sergio Canales SEO](https://sergiocanales.com/wp-content/uploads/Sergio-Canales-SEO-nichos.png)
Si has llegado hasta aquí… ¡Apúntate a mi Newsletter y sigue aprendiendo cada semana sobre SEO!