Technische SEO is veel meer dan een website bouwen. SEO bestaat uit techniek, content en autoriteit en daarom is technische SEO erg belangrijk voor jouw website.

In deze blog geef ik je een introductie over technische SEO, zodat jij straks jouw eigen technische SEO analyse voor jouw website kunt gaan uitvoeren!

Googlebot, lees je mee?

Inhoudsopgave

Hoe werkt een website?

Om te begrijpen wat technische SEO is, beginnen we bij de basis: een website. Een website is niets anders dan een verzamelplaats van webpagina’s die door middel van links aan elkaar verbonden zijn. De webpagina’s zijn bestanden die opgeslagen staan op een webserver. Deze bestanden bevatten honderden of soms wel duizenden regels code.

Zodra je met een browser als Chrome een website bezoekt, wordt alle code die in de bestanden staan vertaald naar de visuele weergave zoals een developer of designer deze ontworpen heeft. De browser maakt het tevens mogelijk om interactie met de website te hebben, te klikken op links, te scrollen en ga zo maar door.

HTML, CSS en JavaScript

Een webpagina bestaat voornamelijk uit HTML, CSS en JavaScript bestanden. Een mooie vergelijking is het menselijk lichaam.

Zie HTML als de botten van je lichaam, het is de structuur van je website. Met HTML label je de verschillende type content van jouw pagina met HTML tags. Zo kun je aangeven wat de titel van een pagina is, welke subkoppen er zijn, wat de bodytekst is en wat een afbeelding is.

CSS is als de huid van je lichaam, hiermee geef je aan hoe de HTML elementen weergegeven moeten worden op jouw pagina. Met CSS kun je kleuren, fonts, achtergrondafbeeldingen en meer instellen aan de hand van regels die gelden voor een specifieke html tag, meerdere tags, een heel html bestand of meerdere html bestanden.

JavaScript is als de spieren van je lichaam, hiermee maak je een pagina interactief. Door middel van JavaScript is het mogelijk om pop-ups in beeld te laten verschijnen, interactieve menu’s in te laden of bijvoorbeeld een bevestigingsscherm te tonen wanneer de bezoeker met succes een formulier heeft ingevuld.

Door middel van de samenwerking van HTML, CSS en JavaScript kunnen webdesigners en webdevelopers code samenstellen die leidt tot een visuele website, zoals degene waar je nu deze blog op leest.

Wat is Technische SEO?

Technische SEO is niet anders dan het optimaliseren van het technische gedeelte van je website voor zoekmachines. Google doorloopt in grote lijnen drie fases om een website uiteindelijk in de zoekmachine te krijgen: crawlen, indexeren en vervolgens ranken.

Crawlen, indexeren en ranken

Je moet het eigenlijk zien als een bibliotheekmedewerker die een bibliotheek beheert. Hij begint bij een boek, kijkt en leest het hele boek door en wanneer er in het boek een referentie staat naar een ander boek, zoekt hij dat boek op en gaat hij vervolgens dat boek lezen enzovoort, enzovoort. Alle boeken en informatie worden opgeslagen in zijn bibliotheek en zodra iemand aan de balie iets aan hem vraagt, loopt hij door zijn bibliotheek heen en verzamelt hij de 10 beste boeken die volgens hem het beste antwoord geven op de vraag die gesteld is.

Crawlen kun je vergelijken met het vinden van nieuwe boeken, het doorlezen ervan en het opvolgen van referenties naar andere boeken. Indexeren kun je vergelijken met het opslaan van de boeken in een bibliotheek. Ranken is te vergelijken met het ophalen van de 10 beste boeken voor de vraag die iemand stelt.

Binnen technische SEO kijken we hoe we Google kunnen helpen met het crawlen en indexeren van pagina’s op jouw website om er uiteindelijk voor te zorgen dat alle pagina’s die jij wilt dat in Google komen ook daadwerkelijk naar voren komt zodra iemand in Google zoekt naar het onderwerp van die betreffende pagina.

Crawlen

Om alle pagina’s weer te kunnen geven in hun zoekmachine moet Google eerst alle webpagina’s op het web vinden om ze te kunnen tonen. Dit proces, het crawlen, wordt gedaan door de Googlebot. Crawlen wordt door Google dus gedaan met als doel alle webpagina’s over de hele wereld te vinden.

Googlebot is de verzamelnaam voor veel verschillende type bots voor verschillende onderdelen van het web. Zo heb je een desktop, mobiel, nieuws, afbeeldingen, video, maar ook een adsbot.

Crawlen door Googlebot

Zie Googlebot dus als de bibliotheekmedewerker die begint bij een boek, deze leest en vervolgens via referenties andere boeken gaat zoeken. Googlebot bezoekt (crawlt) een webpagina op het web en rendert deze vervolgens. De Googlebot ‘leest’ vervolgens de tekstuele content van de pagina en analyseert vervolgens de visuele content en de algehele lay-out van de pagina. Als een spin in zijn web probeert Googlebot alles in zijn web te vinden. Door middel van interne links naar pagina’s binnen de site en externe links naar andere sites probeert Google alle webpagina’s te vinden.

Het is dus belangrijk in deze fase dat Googlebot:

  1. Alle pagina’s van jouw website crawlt
  2. Alle content op een pagina die jij gepubliceerd hebt kan lezen én begrijpen

Om ervoor te zorgen dat Googlebot jouw pagina’s crawlt, moet je beginnen met het kijken naar het robots.txt bestand. Dit is een bestandje op jouw server (zet het maar achter je websitenaam, bijvoorbeeld https://www.website.nl/robots.txt) waar eigenlijk instructies staan voor alle bots die jouw website bezoeken.

In een robots.txt bestand kun je de volgende richtlijnen gebruiken:

  • user-agent. Hiermee specificeer je een regel voor één user-agent of bot.
  • disallow. Hiermee geef je aan dat een bepaalde bot een pagina niet mag bezoeken.
  • allow. Hiermee geef je aan dat een bepaalde bot een pagina wél mag bezoeken.
  • sitemap. Hiermee geef je een locatie van een sitemap aan (meer hierover later)

Als er in jouw robots.txt staat User-Agent: * Disallow: / zeg je eigenlijk: “Hey bots, leuk dat jullie er zijn, maar ik heb liever niet dat jullie mijn website bezoeken”. In dit geval geef je dus aan dat alle bots geen enkele pagina op je website mogen bezoeken.

Als een bot zich aan deze regels houdt, dan crawlt Googlebot jouw website niet. Heb je niks wat bots niet mogen crawlen? Dan heb je geen robots.txt bestand nodig, er zijn dan geen regels, dus Googlebot gaat dan gewoon beginnen met crawlen!

Er zijn echter vaak wel redenen waarom je een robots.txt in wilt stellen. Denk bijvoorbeeld aan pagina’s die Googlebot of andere bots niet hoeven te lezen. Een mooi voorbeeld is de /wp-admin/ van een pagina die je toegang tot de backend van een WordPress website geeft, die hoeft googlebot echt niet te crawlen.

De robots.txt is ook handig om aan Google te vertellen waar jouw sitemaps te vinden zijn. Een sitemap is een soort blauwdruk van jouw website waar alle pagina’s, afbeeldingen of bijvoorbeeld video’s van jouw website in staan. Door middel van een sitemap kan de Googlebot heel gemakkelijk alle url’s op jouw site vinden. Een sitemap aanmaken kan ik je dan ook aanraden, zo help je Google met het vinden van jouw pagina’s. Je kunt aan Google laten weten dat je een sitemap hebt door deze te vermelden in de robots.txt, maar ook door het bijvoorbeeld in te dienen in Google Search Console.

Google Search Console is een gratis tool van Google en is in deze fase echt een must. Niet alleen zie je de prestaties van jouw website, ook kun je hier belangrijke informatie vinden over het crawlen én indexeren.

Google Search Console Crawl Statistieken

In de instellingen van Google Search Console vind je bijvoorbeeld het tabje crawlstatistieken terug waar je kunt zien hoeveel crawl aanvragen de bots van Google hebben gedaan, wat voor type bestanden ze gecrawld hebben, wat de status van de pagina was en welke bot van Google dit heeft gedaan.

Hier kan je bijvoorbeeld ook zien dat het grootste gedeelte van je website met de Googlebot Smartphone wordt gecrawld, aangezien Google sinds 2021 overgestapt is op mobile first crawling.

Google Search Console Indexering aanvragen

Ook kun je door middel van de url inspectietool voor een specifieke url zien of Google deze gecrawld heeft, of deze pagina in de index staat én je kunt hier zien welke informatie Google van jouw pagina heeft kunnen vinden door op ‘gecrawlde pagina bekijken’ of ‘live url testen’ te klikken.

Wil je ervoor zorgen dat Google jouw website crawlt? Maak een Google Search Console account aan en gebruik de url inspectie tool om een indexering aan te vragen van jouw homepagina. Zodra Google jouw website dan bezoekt, kan het door middel van de juiste linkstructuur, maar ook door middel van een sitemap alle url’s op jouw website crawlen. Let wel op, dit proces kan dagen, weken tot maanden duren voordat Google jouw gehele website gecrawld heeft!

Google komt op jouw website, en dan? Het is belangrijk dat Google daadwerkelijk alles vindt. Hier komt een juiste linkstructuur kijken. Als er 0 links gaan naar al jouw belangrijke pagina’s, vindt Google het niet tenzij jij deze link in een sitemap zet. Een goede linkstructuur is een must en dat is ook de reden waarom we dit grondig uitzoeken bij een SEO traject.

Indexeren

Zodra de Googlebot jouw pagina crawlt en deze gerenderd is, begint het indexeren van een pagina. Het doel van Google in deze fase is het begrijpen van een webpagina. De Googlebot heeft inmiddels de pagina gevonden en gelezen en wil deze nu begrijpen om uiteindelijk te bepalen waar de pagina over gaat, welke content er te vinden is en hoe goed deze content is.

Zie indexeren als de bibliotheekmedewerker die een boek zo goed mogelijk probeert te begrijpen. Hij analyseert de tekst, probeert te begrijpen waar het over gaat, ziet de afbeeldingen in het boek en uiteindelijk door het lezen ervan merkt hij aan het verhaal wat verteld wordt hoe goed het boek is.

En eerlijk, hoe zou jij een boek op eerste oog beoordelen? Vaak bekijk je de titel, lees je op de achterkant de omschrijving, bekijk je de koppen/titels van de hoofdstukken en de afbeeldingen in het boek. Dat is ook hoe Google begint met het begrijpen van jouw website. Belangrijke onderdelen zijn: de titel, meta description, headings en de rest van de content.

Het is in deze fase dus belangrijk dat Google:

  1. Alle pagina’s van jouw website indexeert
  2. Alle content op een pagina die jij gepubliceerd hebt begrijpt

Net als de disallow optie in de robots.txt kun je ook aan Google aangeven dat je een pagina niet wilt indexeren, dit door een noindex tag toe te voegen in de <head> van een pagina. Let op, er zit een verschil tussen crawlen en indexeren! Aan Google vertellen dat ze een pagina niet mogen crawlen, betekent niet dat het automatisch ook niet geïndexeerd wordt. Google ziet pas een noindex zodra een pagina wordt gecrawld! Als een andere website naar deze pagina linkt, kan het zijn dat Google zonder een pagina te crawlen deze wel indexeert.

Het is erg belangrijk dat je aan Google vertelt welke pagina’s je niet in de index wilt hebben. Net als met robots.txt betekent geen regels dat alles mag en dat Google dus indexeert, een index tag is niet verplicht.

Naast index of noindex staat er veel meer belangrijke informatie in de head:

  1. Titel
  2. Meta description
  3. Canonical
  4. Alternate

De titel en meta description zijn super belangrijk, deze tekst zie je uiteindelijk terug in de zoekmachine. Goed om te weten dat een meta description vervangen kan worden door Google wanneer hij denkt dat een stuk tekst van jouw website beter past, door een beschrijvende unieke meta description voorkom je dit.

De canonical en alternate zijn ook erg belangrijk als het gaat om het begrijpen van een website. Als Google twee (bijna) identieke pagina’s ziet, kiezen ze uiteindelijk één pagina die in de zoekmachine terugkomt, dit is de canonical. Ook kan het zijn dat je meerdere versies van een pagina hebt, bijvoorbeeld een pagina in verschillende talen. Met behulp van de alternate tag in combinatie met de hreflang kun je aan Google vertellen dat deze pagina ook nog beschikbaar is in andere varianten.

Het belangrijkste gedeelte van een website is en blijft de content. Met content wordt bedoeld: de tekst, afbeeldingen en video’s op jouw pagina die van toegevoegde waarde is voor jouw doelgroep. Het is dus belangrijk om aan Google duidelijk kenbaar te maken waar de pagina over gaat. Door de juiste zoekwoorden te gebruiken, informatie te verschaffen en aan te vullen met rijke content kan Google begrijpen hoe waardevol jouw pagina is voor mensen die zoeken naar hetgeen wat op jouw pagina staat.

Hoe slim Google ook is in het begrijpen van afbeeldingen, zijn ze nog niet zo ver als met tekst het geval is. Belangrijk is daarom dat bij elke afbeelding een alternatieve tekst beschikbaar is. Een alt tag is een beschrijvende tekst wat Google helpt de afbeelding te begrijpen.

Het is belangrijk om Google zo veel mogelijk mee te helpen met het begrijpen van jouw website en daarom is het ook belangrijk om structured data toe te voegen. HTML tags gebruiken we om aan te geven wat een stuk tekst is, maar niet wat het betekent. Door structured data te gebruiken licht je stukjes code uit en vertel je eigenlijk tegen Google wat ze betekenen. Uiteindelijk zorgt die structured data er ook voor dat je mogelijk rich snippets in de serp kunt krijgen.

Voorbeeld FAQ Rich SNippet

Ranken

De laatste fase voor Google is het ranken van de pagina in de zoekmachine. Inmiddels heeft Google de pagina gelezen, begrijpt hij waar het over gaat en staat het in de index. Zodra iemand zoekt, kijkt Google naar welke pagina’s hij met dat woord in de index heeft en bepaalt wat het beste antwoord is.

Er zijn duizenden ranking factoren waar Google rekening mee houdt, maar onder andere belangrijk voor Google is of een pagina veilig is en hoe snel een pagina is. Beide factoren zijn ontzettend belangrijk voor de gebruikerservaring en hebben te maken met de techniek.

Zonder https en een SSL-certificaat is je website niet goed beveiligd en sta je 1-0 achter bij Google. De ‘s’ van https staat voor security. Laat jij op een onveilige http website jouw gegevens achter?

Ook de snelheid van een website is erg belangrijk voor de gebruikerservaring en heeft alles te maken met hoe snel een browser de bestanden van jouw pagina in kan laden. Onlangs vertelde ik in een video hoe je je website snelheid kunt verbeteren door eerst je pagina te testen met bijvoorbeeld Google Pagespeed Insights.

Google Pagespeed Insights

Door inefficiënt inladen van CSS en JavaScript bestanden, geen caching, geen compressie en geen geoptimaliseerde afbeeldingen kan jouw website een stuk trager worden en dus een stuk minder prettig voor de gebruiker zijn.

Net als een trage website is het ook heel vervelend voor een gebruiker wanneer ze in Google op een pagina klikken en ze vervolgens op een 404 pagina terechtkomen, een pagina die niet (meer) bestaat. Een 404 kan ontstaan doordat de url van de pagina niet meer bestaat of veranderd is, een beetje hetzelfde als de bibliotheekmedewerker die bij jouw huis moet zijn voor jouw boek die in de bibliotheek moet komen, maar je zonder het hem hebt verteld opeens twee dorpen verder woont.

Door middel van een redirect geef je aan dat de pagina verhuisd is naar een ander adres. Super fijn, want zo weet Google gelijk wat het nieuwe adres is, tevens geef je alle waarde die je opgebouwd hebt met je website gelijk door naar het nieuwe adres. Wanneer er een redesign plaatsvindt en je geen redirects doorvoert, heeft dit grote gevolgen voor jouw organisch verkeer en daar word je niet blij van. Een 301 (permanente) of 302 (tijdelijke) redirect stel je bijvoorbeeld in het .htaccess, een bestand op de server van jouw website.

Een Technische SEO analyse doen

Inmiddels heb ik je al redelijk wat verteld over websites, crawlen en indexeren. De volgende stap is daadwerkelijk een technische SEO analyse gaan doen op jouw website om uiteindelijk te gaan optimaliseren.

Goed om te weten dat het analyseren vaak ‘gemakkelijk’ gedaan kan worden, maar je voor aanpassingen vaak bij een webbouwer moet zijn die deze aanbevelingen daadwerkelijk kan implementeren.

Een technische SEO analyse doen begint met het analyseren van de website. Hierin is het belangrijk dat je in zijn algeheel gaat kijken naar de linkstructuur, url-opbouw, andere versies van de website, duplicate content, maar ook de snelheid van je website.

Duik ook in de pagina code van je website, dit kan in Google Chrome gemakkelijk door op je rechter muisknop te klikken en ‘paginabron weergeven’ te klikken. Hier kun je gemakkelijk de meta tags, structured data, robots en alle andere content controleren en of alle mogelijke zaken toegevoegd zijn.

Ook belangrijk is om je pagina door tools heen te halen. Eerder noemde ik al Pagespeed Insights voor het optimaliseren van je snelheid, maar ook de Mobile Friendly test van Google is super belangrijk. Niet alleen zie je of je pagina geschikt is voor mobiele apparaten, ook zie je gelijk de code die Google heeft kunnen vinden. Belangrijk dat Google alle content kan lezen met de Googlebot!

Heb je beschikking over Screaming Frog, dan kun je met deze tool een crawl uitvoeren (de eerste 500 links zijn gratis). Screaming Frog simuleert hoe Google jouw website crawlt en hiermee kun je in kaart brengen hoe jouw interne linkstructuur is, maar vind je ook allerlei informatie over jouw website. Hier kun je ook met een paar drukken op de knop alle 404 pagina’s, geblokkeerde url’s door robots, grote afbeeldingen, afbeeldingen zonder alt tekst en nog veel meer exporteren naar een Excel bestand.

Ook is het belangrijk dat je Google Search Console gaat analyseren. Door middel van het tabje ‘dekking’ kun je precies zien welke url’s geïndexeerd zijn, welke niet en waarom. Ook zie je in de instellingen de crawlstatistieken en kun je analyseren of alles goed gaat.

Technische SEO optimaliseren

Het is super belangrijk dat je aan de slag gaat met technische SEO en technische SEO gaat optimaliseren. Je kan een autoriteit zijn in de markt, super goede content hebben, maar één simpele noindex en je wordt nooit gevonden in Google.

Techniek is de basis van jouw website en het is daarom erg belangrijk dat je door middel van jouw code er voor kunt gaan zorgen dat Google jouw website kan crawlen, indexeren én uiteindelijk ranken!