Il crawl budget è la quantità di risorse che un motore di ricerca decide di dedicare alla scansione di un sito web in un dato intervallo di tempo. Non tutte le pagine vengono visitate ad ogni passaggio: i crawler seguono priorità, profondità dei link, frequenza di aggiornamento e qualità percepita. Per i siti di studi professionali, che spesso hanno decine o centinaia di URL tra pagine servizio, news, landing locali e risorse scaricabili, un crawl budget limitato può significare che alcune pagine restano in coda o vengono rivalutate con lentezza. Fattori che sprecano budget includono duplicati, parametri URL inutili, redirect concatenati, errori server ripetuti e contenuti molto simili tra loro. Migliorare la struttura interna, il file robots, la sitemap XML e ridurre pagine di basso valore aiuta a concentrare la scansione dove serve. Non è necessario ottimizzare il crawl budget su un sito vetrina di dieci pagine, ma diventa rilevante su portali editoriali o multi-sede. Monitorare la copertura in Search Console mostra quali URL sono stati scoperti e indicizzati e dove compaiono anomalie.
In parole semplici
Il crawl budget è la quantità di risorse che un motore di ricerca decide di dedicare alla scansione di un sito web in un dato intervallo di tempo. Non tutte le pagine vengono visitate ad ogni passaggio: i crawler seguono priorità, profondità dei link, frequenza di aggiornamento e qualità percepita.
Termini correlati
Vuoi approfondire? Leggi le nostre guide
Vai alle guide →