Wat mag Google wel en niet zien van jouw website?
Elke dag worden miljoenen websites bezocht door zoekmachines zoals Google, Bing en ChatGPT. Deze bots ‘crawlen’ jouw site om te bepalen wat ze indexeren – en dus wat zichtbaar wordt in zoekresultaten.
Maar wie bepaalt eigenlijk wat ze wel of niet mogen zien?
Daar komt het robots.txt-bestand in beeld. Een klein tekstbestandje dat fungeert als de portier van je website:
“Deze pagina’s mag je doorzoeken… en deze liever niet.”
Of je nu:
- gevoelige data wilt afschermen
- onbelangrijke pagina’s wilt uitsluiten
- of je crawlbudget slim wilt gebruiken
…dan is het robots.txt-bestand je nieuwe beste vriend.
In deze blog ontdek je precies wat het is, hoe het werkt, en waarom het essentieel is voor je SEO- en indexatiestrategie.
Inhoud
- 1 Wat is een robots.txt-bestand?
- 2 Waarom is een robots.txt-bestand essentieel?
- 3 Hoe beïnvloedt een robots.txt-bestand je website-indexering?
- 4 Hoe maak je een effectief robots.txt-bestand?
- 5 Veelvoorkomende fouten en hoe je ze voorkomt
- 6 Testen en valideren van je robots.txt-bestand
- 7 Best practices voor optimaal gebruik
- 8 Klein bestand, grote invloed
Wat is een robots.txt-bestand?
Een robots.txt-bestand is een simpel tekstbestand dat je plaatst in de root van je domein (bijv. https://jouwdomein.nl/robots.txt
).
Het vertelt zoekmachines welke delen van je website ze wel of niet mogen crawlen.
Hoe werkt dat?
Het bestand bevat instructies die bots lezen zodra ze je site bezoeken. Bijvoorbeeld:
User-agent: *
Disallow: /admin/
Allow: /blog/
Dit zegt tegen alle bots:
- Blijf weg van de
/admin/
-map - De
/blog/
is wél toegankelijk
De belangrijkste termen zijn:
Term | Uitleg |
---|---|
User-agent | Geeft aan voor welke bot de regel geldt (bijv. Googlebot) |
Disallow | Blokkeert toegang tot bepaalde paden of mappen |
Allow | Staat toegang toe tot specifieke paden binnen geblokkeerde secties |
Sitemap | Verwijst naar je XML-sitemap voor indexatiehulp |
Crawl-delay | Reguleert hoe vaak een bot mag crawlen (optioneel) |
Belangrijk om te weten
- Een robots.txt-bestand is niet bindend. Betrouwbare bots houden zich eraan, maar kwaadwillende crawlers kunnen het negeren.
- Het blokkeert geen indexatie van pagina’s die al gelinkt zijn elders. Gebruik daarvoor ook
noindex
of loginrestricties.
Waarom is een robots.txt-bestand essentieel?
Veel website-eigenaren besteden veel aandacht aan hun content, maar vergeten de toegangspoort. Met een goed ingericht robots.txt-bestand bepaal jij wie binnen mag en wie niet.
De voordelen op een rij:
1. Je voorkomt onbedoelde indexatie
Denk aan:
- /cart/
- /login/
- /search-results/
- staging of testpagina’s
Je wilt niet dat deze verschijnen in Google – en met Disallow
voorkom je dat.
2. Je benut je crawlbudget beter
Elke site heeft een beperkt aantal URL’s dat zoekmachines crawlen per periode.
Wil je dat bots tijd verspillen aan irrelevante pagina’s? Of liever aan je best scorende content?
Met robots.txt stuur je crawlers naar de juiste plekken.
3. Je helpt bij performance en serverbelasting
Voor grote sites of bij piekverkeer kan Crawl-delay
helpen om bots niet alles tegelijk op te vragen.
4. Je ondersteunt andere SEO-strategieën
In combinatie met:
Hoe beïnvloedt een robots.txt-bestand je website-indexering?
Een robots.txt-bestand is meer dan een lijstje met instructies—het bepaalt in hoge mate welke content wél en niet vindbaar wordt in zoekmachines. En daarmee beïnvloedt het direct je online zichtbaarheid.
Crawlen ≠ indexeren (maar wel gerelateerd)
Zoekmachines kunnen alleen content indexeren die ze eerst hebben gecrawld. Als je bepaalde pagina’s uitsluit via robots.txt, kunnen ze dus ook niet worden geïndexeerd.
Maar let op: als een geblokkeerde pagina toch wordt gelinkt vanaf andere websites, kan deze alsnog in de zoekresultaten verschijnen, zónder snippet of content. Wil je dat voorkomen? Combineer dan robots.txt met een noindex
meta-tag – of gebruik beide methodes slim naast elkaar.
Crawlbudget: hoe slim benut je het?
Zeker bij grotere websites is het belangrijk om het crawlbudget van zoekmachines goed te sturen.
Je wilt immers dat de bot zijn tijd besteedt aan:
- pagina’s die belangrijk zijn voor SEO
- nieuwe of geüpdatete content
- conversiegerichte landingspagina’s
En dus niet aan:
- filterpagina’s
- paginatie (bijv. /page/9)
- admin-omgevingen
Een goed robots.txt-bestand maakt jouw site efficiënter indexeerbaar, zonder overbodige ballast.
Hoe maak je een effectief robots.txt-bestand?
Een krachtig robots.txt-bestand hoeft niet ingewikkeld te zijn. Integendeel: eenvoud werkt het best. Het doel is duidelijk aangeven wat crawlers wel en niet mogen bezoeken.
Start met een basisstructuur
User-agent: *
Disallow: /admin/
Disallow: /cart/
Allow: /blog/
Sitemap: https://jouwdomein.nl/sitemap.xml
Deze regels betekenen:
- Alle bots zijn welkom (
*
) - Admin- en winkelmandpagina’s worden geblokkeerd
- Blogsectie is expliciet toegestaan
- XML-sitemap wordt aangeboden ter ondersteuning van indexering
Best practices voor een slim robots.txt-bestand
- Wees specifiek, niet te breed
Blokkeer liever/search/
dan/
, om te voorkomen dat je hele site ontoegankelijk wordt. - Gebruik één
User-agent
per blok
Wil je Google anders behandelen dan Bing? Splits de instructies. - Voeg altijd een sitemap toe
Hiermee help je bots de juiste pagina’s sneller te vinden en te crawlen. - Gebruik kleine letters en exacte paden
/Blog/
is niet hetzelfde als/blog/
op servers die hoofdlettergevoelig zijn.
Veelvoorkomende fouten en hoe je ze voorkomt
Zelfs ervaren developers maken fouten in hun robots.txt-bestand. Hieronder de meest voorkomende missers – en hoe jij ze voorkomt.
Per ongeluk je hele site blokkeren
User-agent: *
Disallow: /
Resultaat: geen enkele pagina wordt gecrawld. Je valt compleet uit de index.
Oplossing: gebruik deze regel alleen tijdelijk (bijvoorbeeld bij een staging-omgeving), en verwijder hem zodra je live gaat.
Belangrijke pagina’s blokkeren
Bijvoorbeeld:
Disallow: /product/
Fout: je blokkeert nu ook je best verkopende productpagina’s.
Oplossing: wees precies. Gebruik /cart/
of /thank-you/
i.p.v. brede categorieën.
Robots.txt gebruiken als beveiliging
Let op: dit bestand is openbaar. Iedereen kan https://jouwdomein.nl/robots.txt
bekijken.
Oplossing: voor gevoelige data gebruik je beter wachtwoordbeveiliging of headers als noindex, nofollow
.
Geen sitemap vermelden
Je laat kansen liggen als je geen Sitemap:
toevoegt. Veel bots gebruiken dit om je structuur sneller te begrijpen.
Oplossing: voeg dit altijd toe, zeker als je werkt met CMS’en als WordPress, Shopify of Webflow.
Testen en valideren van je robots.txt-bestand
Een robots.txt-bestand schrijven is één ding, maar hoe weet je zeker dat het werkt zoals jij wilt? Het antwoord: testen en valideren. Zo voorkom je dat je per ongeluk waardevolle pagina’s blokkeert of bots de verkeerde kant opstuurt.
Tools om mee te testen
- Google Search Console – Gebruik de ingebouwde robots.txt-tester
→ Geeft meteen aan of een specifieke URL geblokkeerd wordt - Live test in je browser
→ Ga naarjouwdomein.nl/robots.txt
en check de inhoud
→ Test URL’s metsite:jouwdomein.nl/intern/
om te zien of ze nog in de index staan - Logfile analyse
→ Geavanceerd, maar waardevol: controleer of bots proberen te crawlen wat jij verboden hebt
Checklist bij validatie
- Werkt je
Disallow
zoals bedoeld? - Worden je belangrijke SEO-pagina’s niet per ongeluk geblokkeerd?
- Is je sitemap correct opgenomen?
- Heb je niets vergeten te updaten na contentstructuurwijzigingen?
Een verkeerde regel kan je SEO maanden terugwerpen. Test daarom regelmatig—zeker na een redesign of migratie.
Best practices voor optimaal gebruik
Robots.txt is geen eenmalige setup. Het is een levend document dat meegroeit met je website.
Houd je aan deze principes:
- Eenvoud boven complexiteit
Gebruik alleen wat nodig is. Meer regels = meer kans op fouten. - Combineer met andere SEO-signalen
Robots.txt voorkomt crawlen, maar geen indexatie van al gelinkte pagina’s.
Gebruiknoindex
-meta tags of canonical links waar nodig. - Herzie je bestand bij elke site-update
Nieuwe map? Nieuwe functie? Vergeet je robots.txt niet. - Blokkeer bewust, niet uit gewoonte
Iets verbergen “omdat het zo hoort” kan averechts werken voor je vindbaarheid.
Klein bestand, grote invloed
Een robots.txt-bestand is geen detail—het is een krachtig instrument om controle te krijgen over hoe zoekmachines je site crawlen en indexeren.
- Je beschermt privacygevoelige of irrelevante content
- Je stuurt bots slim naar je belangrijkste pagina’s
- Je maximaliseert je crawlbudget én SEO-impact
Zorg dat je bestand klopt, actueel is, en afgestemd op je contentstrategie. Test regelmatig, houd het overzichtelijk, en wees nooit te snel tevreden.

Twijfel je over je robots.txt-bestand?
Plan gratis een korte call met mij in. Samen bekijken we of je belangrijke SEO-kansen laat liggen of onbedoeld blokkeert.
Plan je gratis call