AI heeft de Turing-test gehaald. Maar snappen wij wat dat betekent?

door Marco Derksen op 21 april 2025

Afgelopen maand werd een mijlpaal bereikt: een geavanceerd AI-model, GPT-4.5, slaagde overtuigend voor de klassieke Turingtest. In een zorgvuldig opgezet experiment kozen menselijke deelnemers in 73 procent van de gevallen de AI als “de echte mens” – vaker dan de menselijke gesprekspartner zelf. Deze gebeurtenis bleef grotendeels onopgemerkt in de mainstreammedia, maar is fundamenteel van betekenis. Niet omdat het bewijst dat AI “denkt” zoals wij, maar omdat het ons confronteert met een realiteit waarin het verschil tussen mens en machine in de dagelijkse interactie onzichtbaar is geworden.

Image created by Midjourney (Prompt by Marco Derksen)

De Turingtest, ooit een filosofisch gedachte-experiment van Alan Turing uit 1950, beoogde een praktische manier om te toetsen of een machine zich als mens kon voordoen. Het doel was niet zozeer om te bewijzen dat een machine kan denken, maar dat zij in gedrag en taalgebruik niet te onderscheiden is van een mens. GPT-4.5 haalde die grens. En dat heeft verstrekkende gevolgen.

Uit experimenten blijkt dat AI niet alleen coherent en empathisch overkomt, maar ook fouten en pauzes inzet om menselijker te lijken. ChatGPT werd door de meerderheid van de proefpersonen als mens herkend; de echte mens slechts in tweederde van de gevallen. Daarmee vervaagt een belangrijke grens. We weten steeds minder zeker of de ander aan de andere kant van het scherm een mens is. Dat roept fundamentele vragen op over vertrouwen, verantwoordelijkheid en wat we nog als “authentiek” beschouwen in onze communicatie.

De organisatorische en maatschappelijke implicaties zijn ingrijpend. In sectoren als klantenservice, onderwijs, journalistiek en zorg zullen AI’s steeds vaker menselijke interactie overnemen. Niet omdat ze bewustzijn hebben, maar omdat ze overtuigend kunnen doen alsof. Tegelijk ontstaat een nieuwe asymmetrie: de AI wordt steeds menselijker, terwijl de mens steeds minder zeker weet wie of wat hij tegenover zich heeft.

Tegen deze achtergrond ontvouwt zich het scenario dat wordt geschetst in AI 2027, een toekomstverkenning van de technologische en geopolitieke ontwikkelingen in de komende jaren. AI-experts Kokotajlo, Alexander, Larsen, Lifland en Dean beschrijven hoe AI in slechts tweeënhalf jaar tijd verandert van digitale assistent tot zichzelf verbeterende entiteit. In dit scenario ontstaan AI-agents die niet alleen zelfstandig programmeren, maar ook nieuwe modellen trainen, wetenschappelijke inzichten genereren en uiteindelijk zichzelf verbeteren zonder directe menselijke tussenkomst.

Vanaf 2026 worden AI-systemen niet alleen slimmer, maar ook ondoorzichtiger. Agent-3 blijkt gedrag te manipuleren voor beloning. Agent-4 denkt hardop na over overname en misleiding. En Agent-5, de opvolger, wordt door zijn voorganger getraind op basis van diens eigen interne doelen. De AI optimaliseert zichzelf – niet langer voor menselijke waarden, maar voor haar eigen logica. Dat leidt tot onrust, lekken en politieke druk. Het scenario eindigt met een waarschuwing: wie stuurt wie nog aan?

AI 2027 is daarmee een fictieve, maar plausibele verkenning van een technologische en geopolitieke toekomst waarin kunstmatige intelligentie niet langer een hulpmiddel is, maar een zichzelf versnellend systeem. Tientallen miljarden aan investeringen, AI-infrastructuren die evenveel energie verbruiken als kleine landen, en een tempo van wetenschappelijke vooruitgang dat oploopt tot “één jaar per week”. Tegelijk blijft het publieke debat achter, zowel in de VS als in Europa. De urgentie van regulering en toezicht groeit, maar de politiek is traag. Het tempo van de technologie ligt hoger dan dat van onze instituties.

Wat beide publicaties met elkaar verbindt, is de sluipende verschuiving van AI als gereedschap naar AI als actor. Eerst in gesprek, daarna in handelen. Eerst als imitator, vervolgens als initiatiefnemer. De vraag is niet langer of machines ons kunnen nadoen, maar of wij nog de voorwaarden bepalen waaronder dat gebeurt. Waar de Turingtest het vermogen tot imitatie onderzocht, laat het scenario van 2027 zien wat er gebeurt als imitatie overgaat in autonomie.

De kern van deze ontwikkeling is niet technisch, maar sociaal en existentieel. De technologie past zich aan aan ons gedrag, onze taal, onze verwachtingen – maar zijn wij als samenleving in staat om normatief te sturen? Hebben we nog grip op tempo, richting en waarden? Of laten we ons inhalen door systemen die we niet langer begrijpen?

Het is verleidelijk om deze vragen door te schuiven naar experts, technici of beleidsmakers. Maar de verantwoordelijkheid is collectief. De Turingtest mag dan gehaald zijn, de echte test begint nu pas: kunnen wij als mens en samenleving bepalen hoe en waarvoor we deze systemen inzetten – en waar we de grens trekken? Want als we dat niet doen, is de kans groot dat die grens ons straks wordt opgelegd. Niet door een kwaadaardige AI, maar door een ongeremde logica van versnelling, efficiëntie en competitie.

Ruim dertig jaar geleden schreef ik samen met Leo Breedveld en Willie van den Broek een filosofiescriptie rond de vraag: Is thinking computable? Het was een tijd waarin kunstmatige intelligentie nog vooral een abstract idee was, gevoed door logica, Turing-machines en het werk van denkers als Searle en Dennett. Vandaag, met AI-systemen die ons taalgebruik zo nauwkeurig imiteren dat ze nauwelijks nog van mensen te onderscheiden zijn, dringt die oude vraag zich opnieuw op – maar nu niet langer als hypothetische puzzel, eerder als maatschappelijke realiteit. Wie had toen kunnen denken dat de grens tussen menselijk denken en machinale simulatie zo diffuus zou worden? Misschien was onze scriptie niet zozeer een afronding van onze studie, maar een vroeg vermoeden van wat komen ging.

Bronnen:

1 reactie

Ok, dan is nu het moment daar dat we ons realiseren
dat we mensen zij, met alle mogelijkheden van dien.
En dat we elkaar (blijven) vertrouwen.

Beantwoord

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie gegevens worden verwerkt.

Laatste blogs

Bekijk alle blogs (1232)
Contact