GenAI is geen denkende machine, maar een statistisch systeem

door Marco Derksen op 22 februari 2026

In 2025 ontving professor Michael John Wooldridge, hoogleraar Artificial Intelligence (AI) aan de Universiteit van Oxford, de Michael Faraday Prize van The Royal Society. Deze prijs wordt toegekend aan wetenschappers die zowel uitblinken in onderzoek als in publiekscommunicatie. In zijn bijbehorende lezing, getiteld “This is not the AI we were promised”, reflecteert Wooldridge op de snelle ontwikkeling van AI en plaatst hij die in perspectief. De huidige generatie AI-systemen is indrukwekkend en vaak bruikbaar, maar fundamenteel anders dan het beeld dat lange tijd van AI heeft bestaan.

De aanleiding voor zijn betoog ligt in de doorbraak van grote taalmodellen zoals GPT-3 in 2020. Sindsdien zijn systemen als ChatGPT uitgegroeid tot breed gebruikte technologieën die teksten schrijven, code genereren en complexe vragen beantwoorden. Wooldridge laat zien hoe snel de vooruitgang is gegaan. Waar een beeldherkenningssysteem in 2016 nog moeite had om het schilderij Starry Night van Van Gogh te herkennen, kon een model in 2024 wiskundige olympiadeproblemen oplossen. GPT-3 werd getraind met ongeveer 175 miljard parameters en honderden miljarden woorden aan tekst. Voor de training waren naar schatting 3 × 10²³ rekenoperaties nodig, uitgevoerd op gespecialiseerde AI-supercomputers. Die schaal is volgens Wooldridge essentieel om de huidige prestaties te begrijpen.

Toch is dit volgens hem niet de rationele, logisch redenerende AI die velen verwachtten. Het klassieke beeld van AI was dat van een systeem dat een probleem krijgt, dit intern oplost via consistente redenering en vervolgens het juiste antwoord geeft. Grote taalmodellen werken anders. Ze voorspellen telkens het meest waarschijnlijke volgende woord op basis van patronen in hun trainingsdata. Dat betekent dat ze geen begrip hebben van waarheid of onwaarheid. Ze produceren het meest plausibele antwoord, niet noodzakelijk het juiste.

Dat leidt tot wat Wooldridge “weird” gedrag noemt. Hij geeft voorbeelden van systemen die beweren dat slapen op een IKEA-bed je waarschijnlijk van Zweden laat dromen, of die volhouden dat het woord “strawberry” twee keer de letter r bevat. Zulke fouten zijn geen incidentele missers, maar het gevolg van de manier waarop deze modellen zijn opgebouwd. Ook het verschijnsel van zogenaamde hallucinaties, overtuigend klinkende maar onjuiste antwoorden, is volgens hem structureel ingebed in de architectuur.

Tegelijkertijd erkent Wooldridge dat er iets bijzonders gebeurt. Door enorme hoeveelheden data en rekenkracht kunnen deze systemen patronen van redenering, planning en probleemoplossing imiteren. In zogeheten “chain of thought”-benaderingen wordt het model gestimuleerd om tussenstappen expliciet te formuleren, wat de kwaliteit van antwoorden kan verbeteren. Maar ook hier geldt dat het systeem geen inzicht heeft in wat het doet; het reproduceert patronen die in taal besloten liggen.

Een belangrijk onderdeel van zijn lezing betreft de menselijke neiging om AI-systemen als rationele geesten te behandelen. Mensen delen persoonlijke zorgen met chatbots en spreken ze beleefd aan. Wooldridge verwijst naar de Turingtest en stelt dat deze in praktische zin grotendeels is gepasseerd: miljoenen gebruikers ervaren hun interacties als gesprekken met een denkend systeem. Toch wijst hij de gedachte aan bewustzijn of intentie resoluut af. “They are not rational minds,” zegt hij, en evenmin zijn ze sentient. Menselijke intelligentie is volgens hem het resultaat van miljoenen jaren evolutie en lichamelijke interactie met de wereld. Taalmodellen verschillen daar fundamenteel van.

In zijn slot reflecteert Wooldridge op de juiste manier om met AI om te gaan. Hij beschouwt AI als een “cognitive prosthesis”, een hulpmiddel dat menselijke intelligentie versterkt in plaats van vervangt. Net zoals een spreadsheet complexe berekeningen mogelijk maakt zonder zelf te begrijpen wat het doet, kan AI taken ondersteunen zonder een zelfstandig denkend wezen te zijn. De uitdaging voor de komende jaren ligt volgens hem niet alleen in technologische vooruitgang, maar vooral in het begrijpen van deze systemen, hun grenzen en hun risico’s.

Zijn belangrijkste conclusies zijn dat huidige AI-systemen indrukwekkende prestaties leveren dankzij schaal en statistische modellering, maar geen rationele of bewuste entiteiten zijn. Verwarring tussen plausibiliteit en waarheid vormt een reëel risico. Hij pleit voor nuchterheid, fundamenteel onderzoek naar modelgedrag en verantwoord gebruik. Reflecterend op de geschiedenis van de wetenschap vergelijkt hij de huidige fase van AI met de vroege dagen van elektriciteit: veelbelovend en ingrijpend, maar nog niet volledig begrepen. Het is volgens hem een uitzonderlijke periode voor AI-onderzoek, waarin helder denken noodzakelijk blijft.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (1304)
Contact