Ga naar de inhoud

Wat is een robots.txt-bestand en hoe beïnvloedt het je website-indexering?

Wat mag Google wel en niet zien van jouw website?

Elke dag worden miljoenen websites bezocht door zoekmachines zoals Google, Bing en ChatGPT. Deze bots ‘crawlen’ jouw site om te bepalen wat ze indexeren – en dus wat zichtbaar wordt in zoekresultaten.

Maar wie bepaalt eigenlijk wat ze wel of niet mogen zien?

Daar komt het robots.txt-bestand in beeld. Een klein tekstbestandje dat fungeert als de portier van je website:

“Deze pagina’s mag je doorzoeken… en deze liever niet.”

Of je nu:

  • gevoelige data wilt afschermen
  • onbelangrijke pagina’s wilt uitsluiten
  • of je crawlbudget slim wilt gebruiken

…dan is het robots.txt-bestand je nieuwe beste vriend.

In deze blog ontdek je precies wat het is, hoe het werkt, en waarom het essentieel is voor je SEO- en indexatiestrategie.

Wat is een robots.txt-bestand?

Een robots.txt-bestand is een simpel tekstbestand dat je plaatst in de root van je domein (bijv. https://jouwdomein.nl/robots.txt).
Het vertelt zoekmachines welke delen van je website ze wel of niet mogen crawlen.

Hoe werkt dat?

Het bestand bevat instructies die bots lezen zodra ze je site bezoeken. Bijvoorbeeld:

User-agent: *
Disallow: /admin/
Allow: /blog/

Dit zegt tegen alle bots:

  • Blijf weg van de /admin/-map
  • De /blog/ is wél toegankelijk

De belangrijkste termen zijn:

TermUitleg
User-agentGeeft aan voor welke bot de regel geldt (bijv. Googlebot)
DisallowBlokkeert toegang tot bepaalde paden of mappen
AllowStaat toegang toe tot specifieke paden binnen geblokkeerde secties
SitemapVerwijst naar je XML-sitemap voor indexatiehulp
Crawl-delayReguleert hoe vaak een bot mag crawlen (optioneel)

Belangrijk om te weten

  • Een robots.txt-bestand is niet bindend. Betrouwbare bots houden zich eraan, maar kwaadwillende crawlers kunnen het negeren.
  • Het blokkeert geen indexatie van pagina’s die al gelinkt zijn elders. Gebruik daarvoor ook noindex of loginrestricties.

Waarom is een robots.txt-bestand essentieel?

Veel website-eigenaren besteden veel aandacht aan hun content, maar vergeten de toegangspoort. Met een goed ingericht robots.txt-bestand bepaal jij wie binnen mag en wie niet.

De voordelen op een rij:

1. Je voorkomt onbedoelde indexatie

Denk aan:

  • /cart/
  • /login/
  • /search-results/
  • staging of testpagina’s

Je wilt niet dat deze verschijnen in Google – en met Disallow voorkom je dat.

2. Je benut je crawlbudget beter

Elke site heeft een beperkt aantal URL’s dat zoekmachines crawlen per periode.
Wil je dat bots tijd verspillen aan irrelevante pagina’s? Of liever aan je best scorende content?

Met robots.txt stuur je crawlers naar de juiste plekken.

3. Je helpt bij performance en serverbelasting

Voor grote sites of bij piekverkeer kan Crawl-delay helpen om bots niet alles tegelijk op te vragen.

4. Je ondersteunt andere SEO-strategieën

In combinatie met:

  • XML-sitemaps
  • Canonical tags
  • Meta robots noindex
    geeft robots.txt structuur aan je technische SEO.

Hoe beïnvloedt een robots.txt-bestand je website-indexering?

Een robots.txt-bestand is meer dan een lijstje met instructies—het bepaalt in hoge mate welke content wél en niet vindbaar wordt in zoekmachines. En daarmee beïnvloedt het direct je online zichtbaarheid.

Crawlen ≠ indexeren (maar wel gerelateerd)

Zoekmachines kunnen alleen content indexeren die ze eerst hebben gecrawld. Als je bepaalde pagina’s uitsluit via robots.txt, kunnen ze dus ook niet worden geïndexeerd.

Maar let op: als een geblokkeerde pagina toch wordt gelinkt vanaf andere websites, kan deze alsnog in de zoekresultaten verschijnen, zónder snippet of content. Wil je dat voorkomen? Combineer dan robots.txt met een noindex meta-tag – of gebruik beide methodes slim naast elkaar.

Crawlbudget: hoe slim benut je het?

Zeker bij grotere websites is het belangrijk om het crawlbudget van zoekmachines goed te sturen.
Je wilt immers dat de bot zijn tijd besteedt aan:

  • pagina’s die belangrijk zijn voor SEO
  • nieuwe of geüpdatete content
  • conversiegerichte landingspagina’s

En dus niet aan:

  • filterpagina’s
  • paginatie (bijv. /page/9)
  • admin-omgevingen

Een goed robots.txt-bestand maakt jouw site efficiënter indexeerbaar, zonder overbodige ballast.

Hoe maak je een effectief robots.txt-bestand?

Een krachtig robots.txt-bestand hoeft niet ingewikkeld te zijn. Integendeel: eenvoud werkt het best. Het doel is duidelijk aangeven wat crawlers wel en niet mogen bezoeken.

Start met een basisstructuur

User-agent: *
Disallow: /admin/
Disallow: /cart/
Allow: /blog/
Sitemap: https://jouwdomein.nl/sitemap.xml

Deze regels betekenen:

  • Alle bots zijn welkom (*)
  • Admin- en winkelmandpagina’s worden geblokkeerd
  • Blogsectie is expliciet toegestaan
  • XML-sitemap wordt aangeboden ter ondersteuning van indexering

Best practices voor een slim robots.txt-bestand

  • Wees specifiek, niet te breed
    Blokkeer liever /search/ dan /, om te voorkomen dat je hele site ontoegankelijk wordt.
  • Gebruik één User-agent per blok
    Wil je Google anders behandelen dan Bing? Splits de instructies.
  • Voeg altijd een sitemap toe
    Hiermee help je bots de juiste pagina’s sneller te vinden en te crawlen.
  • Gebruik kleine letters en exacte paden
    /Blog/ is niet hetzelfde als /blog/ op servers die hoofdlettergevoelig zijn.

Veelvoorkomende fouten en hoe je ze voorkomt

Zelfs ervaren developers maken fouten in hun robots.txt-bestand. Hieronder de meest voorkomende missers – en hoe jij ze voorkomt.

Per ongeluk je hele site blokkeren

User-agent: *
Disallow: /

Resultaat: geen enkele pagina wordt gecrawld. Je valt compleet uit de index.

Oplossing: gebruik deze regel alleen tijdelijk (bijvoorbeeld bij een staging-omgeving), en verwijder hem zodra je live gaat.

Belangrijke pagina’s blokkeren

Bijvoorbeeld:

Disallow: /product/

Fout: je blokkeert nu ook je best verkopende productpagina’s.

Oplossing: wees precies. Gebruik /cart/ of /thank-you/ i.p.v. brede categorieën.

Robots.txt gebruiken als beveiliging

Let op: dit bestand is openbaar. Iedereen kan https://jouwdomein.nl/robots.txt bekijken.

Oplossing: voor gevoelige data gebruik je beter wachtwoordbeveiliging of headers als noindex, nofollow.

Geen sitemap vermelden

Je laat kansen liggen als je geen Sitemap: toevoegt. Veel bots gebruiken dit om je structuur sneller te begrijpen.

Oplossing: voeg dit altijd toe, zeker als je werkt met CMS’en als WordPress, Shopify of Webflow.

Testen en valideren van je robots.txt-bestand

Een robots.txt-bestand schrijven is één ding, maar hoe weet je zeker dat het werkt zoals jij wilt? Het antwoord: testen en valideren. Zo voorkom je dat je per ongeluk waardevolle pagina’s blokkeert of bots de verkeerde kant opstuurt.

Tools om mee te testen

  • Google Search Console – Gebruik de ingebouwde robots.txt-tester
    → Geeft meteen aan of een specifieke URL geblokkeerd wordt
  • Live test in je browser
    → Ga naar jouwdomein.nl/robots.txt en check de inhoud
    → Test URL’s met site:jouwdomein.nl/intern/ om te zien of ze nog in de index staan
  • Logfile analyse
    → Geavanceerd, maar waardevol: controleer of bots proberen te crawlen wat jij verboden hebt

Checklist bij validatie

  • Werkt je Disallow zoals bedoeld?
  • Worden je belangrijke SEO-pagina’s niet per ongeluk geblokkeerd?
  • Is je sitemap correct opgenomen?
  • Heb je niets vergeten te updaten na contentstructuurwijzigingen?

Een verkeerde regel kan je SEO maanden terugwerpen. Test daarom regelmatig—zeker na een redesign of migratie.

Best practices voor optimaal gebruik

Robots.txt is geen eenmalige setup. Het is een levend document dat meegroeit met je website.

Houd je aan deze principes:

  • Eenvoud boven complexiteit
    Gebruik alleen wat nodig is. Meer regels = meer kans op fouten.
  • Combineer met andere SEO-signalen
    Robots.txt voorkomt crawlen, maar geen indexatie van al gelinkte pagina’s.
    Gebruik noindex-meta tags of canonical links waar nodig.
  • Herzie je bestand bij elke site-update
    Nieuwe map? Nieuwe functie? Vergeet je robots.txt niet.
  • Blokkeer bewust, niet uit gewoonte
    Iets verbergen “omdat het zo hoort” kan averechts werken voor je vindbaarheid.

Klein bestand, grote invloed

Een robots.txt-bestand is geen detail—het is een krachtig instrument om controle te krijgen over hoe zoekmachines je site crawlen en indexeren.

  • Je beschermt privacygevoelige of irrelevante content
  • Je stuurt bots slim naar je belangrijkste pagina’s
  • Je maximaliseert je crawlbudget én SEO-impact

Zorg dat je bestand klopt, actueel is, en afgestemd op je contentstrategie. Test regelmatig, houd het overzichtelijk, en wees nooit te snel tevreden.

Hanno Roubos - HelloSEO

Twijfel je over je robots.txt-bestand?

Plan gratis een korte call met mij in. Samen bekijken we of je belangrijke SEO-kansen laat liggen of onbedoeld blokkeert.

Plan je gratis call