¿Qué es crawl?

Un crawl es una palabra inglesa y se traduce literalmente como “trepar”. 

El término “crawling” hace referencia al procedimiento que usan los motores de búsqueda de Google para encontrar todos los distintos sitios webs existentes en la red, analizarlos y asignarles a cada uno de ellos una posición determinada en la SERP.

Dicho de otra forma, los crawlers son una especie de programas o robots pequeños enviados por Google que viajan por la red con el objetivo de clasificar e indexar una web, es decir, determinar el lugar que ocupa una web en la página de resultados de búsqueda. 

Es un método fundamental para dar visibilidad y mejorar el posicionamiento web de las páginas.

Se suele hablar de crawlers en plural ya que existen diferentes tipos de rastreadores. Cada uno de ellos analiza una información diferente. 

El más conocido es el crawl budget,el cual asigna un tiempo específico a cada link de una página web para que los robots los visiten y los posicionen mejor.

¿Qué variables tiene en cuenta el crawling?

Se desconocen los parámetros exactos del algoritmo del crawling, aunque existen muchas variables, entre las que se encuentran:

  • La calidad de los contenidos y sus actualizaciones
  • El diseño web y los componentes tanto de UX como de UI
  • El fácil acceso por parte de los rastreadores
  • La inexistencia de errores.

Pese a que no existe una ponderación exacta, es importante subrayar que este método de ordenación de las páginas web, está constantemente evolucionando hacia las nuevas tecnologías y formas de uso de Internet. 

Entre ellas, cada vez se tiene más en cuenta la popularización de  la navegación adaptativa para móviles, las búsquedas de voz y el SEO local.