Log Files analyseren voor je SEO (incl. crawl budget optimalisatie)

log files analyseren SEO

Je stelt je misschien nu de vraag, een log file analyseren, gaat dat allemaal niet een beetje te ver voor een SEO-marketeer? Kan ik mij niet beter gewoon houden bij het analyseren en verbeteren van mijn webpagina’s?

Geloof me, je bent niet de eerste die het zich afvraagt. Log files zijn nou eenmaal saai en geven jou als SEO-marketeer maar weinig handvatten om jouw campagnes te sturen, toch? Ik ga jou proberen te overtuigen dat jij voor iedere campagne het crawl budget voortaan bekijkt en de log files analyseert!

Voordat we vanaf dit punt verder gaan moet je exact weten wat een log file nou eigenlijk is.

Wat is een log file?

Een log file is in principe een bestand met specifieke data (logs) van alle interacties op je website. Niet alleen interacties van bezoekers, maar tevens van bots.

Iedere campagne is anders en ik kan mij indenken dat voor een kleinere campagne met weinig pagina’s je voorkeur gaat naar andere type SEO-werkzaamheden. Heb je echter een multinational als klant en beschikt de klantwebsites over duizenden pagina’s dan kan het wellicht toch verstandig zijn om dit artikel eens verder te lezen. ­čÖé

Waarom een log file analyseren?

Alles draait om de crawler (Googlebot). Je bent vast en zeker de term crawl budget wel eens tegenkomen. Crawl budget is het aantal pagina’s die de Googlebot langs gaat op jouw website op een willekeurige dag. Het crawlbudget wordt tot dusver nog steeds bepaald aan de hand van de grootte van je website, de gezondheid van je website en de inkomende links naar je website. Je hebt het vast wel eens gezien, je past een titel en beschrijving aan op website A (klein klant) en website B (grote klant). Zonder een fetch ga je dan zien dat de webiste van de grotere klant vele malen vaker wordt bezocht waardoor de aanpassing sneller is doorgevoerd.

Maargoed, terug naar de vraag, waarom willen we de log file analyseren?
Het juist be├»nvloeden van het crawlgedrag kan betekenen dat je pagina’s sneller, vaker en beter ge├»ndexeerd worden. Jij wilt toch ook dat al jouw pagina’s goed ge├»ndexeerd worden, dan enkel de 100 belangrijkste? Jij wil toch ook dat de crawlbot i.p.v. 10 keer per dag, 1000 keer per dag of 1 miljoen keer per dag langskomt?

Crawl budget optimalisatie

Conclusie: Het crawlbudget moeten we optimaliseren!
Binnenkort meer informatie!

Niels Vos

Niels Vos

Sinds 2016 actief als Teamlead SEO/SEA-specialist bij Forresult in Enschede. Geïnspireerd door resultaten dankzij een doordachte aanpak!

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *